Обучение нейросети заняло у японских ученых 10 недель.
Исследователи японской лаборатории ATR разработали искусственный интеллект, который может читать мысли и отображать то, что человек видит перед собой.
К примеру, если человек смотрит на изображение буквы А, нейросеть нарисует образ, который напоминает нечеткую букву А, поясняет The Next Web (перевод – nv.ua).
Обучение нейросети заняло у ученых 10 недель. За это время участникам опытов показывали изображения, а исследователи фиксировали их мозговые импульсы. Исследователи использовали сканирование мозга, чтобы тренировать нейросеть, чтобы "декодировать" данные и визуализировать то, о чем человек думает.
Ученые наблюдали за реакцией мозга как во время опыта, так и позже, когда просили человека припомнить увиденное до этого изображение. Когда эти программы учатся "читать наши мысли" они делают примерно то же самое, что и "экстрасенсы": угадывают. То есть компьютер на самом деле не знает, что вы думаете, но, когда испытуемый пытался воссоздать по памяти букву "А", нейросеть понимала, какие мозговые импульсы отвечают за формирование образа.
Ученые начали с простых геометрических фигур, а затем постепенно начали усложнять тест, перейдя к алфавиту. На этапе обучения программы добровольцам показывали фотографии реальных объектов, но нейросеть оказалась способна реконструировать и изображения абстрактных предметов. Это говорит о том, что компьютер научился обобщать информацию.
Как прогнозируют японские исследователи, в будущем эта технология позволит записывать сны и делиться этими образами с другими людьми. В теории, она также сможет обеспечить мгновенную коммуникацию между человеком и машиной.