"Необработанные" данные показывают, что сигналы искусственного интеллекта отражают то, как мозг слушает и учится

  • Пользователь Алексей Коровин опубликовал
  • 3 мая 2023 г., 14:39:35 MSK
  • 0 комментариев
  • 53 просмотра
Новое исследование показывает, что системы искусственного интеллекта (ИИ) могут обрабатывать сигналы способом, удивительно похожим на то, как мозг интерпретирует речь, и это открытие, по словам ученых, может помочь объяснить "черный ящик" того, как работают системы искусственного интеллекта.

Новое исследование, проведенное Калифорнийским университетом в Беркли, показывает, что системы искусственного интеллекта (ИИ) могут обрабатывать сигналы способом, удивительно похожим на то, как мозг интерпретирует речь. Открытие, по словам ученых, может помочь объяснить "черный ящик" того, как работают системы ИИ.

Используя систему электродов, размещенных на головах участников, ученые из Лаборатории речи и вычислений Беркли измерили мозговые волны, когда участники слушали один-единственный слог - "бах". Затем они сравнили эту мозговую активность с сигналами, генерируемыми системой искусственного интеллекта, обученной изучению английского языка.

"Формы удивительно похожи", - сказал Гаспер Бегус, доцент кафедры лингвистики Калифорнийского университета в Беркли и ведущий автор исследования, опубликованного недавно в журнале Научные отчеты. "Это говорит вам о том, что кодируются похожие вещи, что обработка аналогична".

График параллельного сравнения двух сигналов показывает это поразительное сходство.

"В данных нет никаких изменений", - добавил Бегус. "Это сырое".

Системы искусственного интеллекта в последнее время развиваются семимильными шагами. С тех пор как в прошлом году ChatGPT распространился по всему миру, по прогнозам, эти инструменты перевернут вверх дном все слои общества и произведут революцию в том, как работают миллионы людей. Но, несмотря на эти впечатляющие достижения, ученые имели ограниченное представление о том, как именно созданные ими инструменты взаимодействуют между вводом и выводом.

Вопрос и ответ в ChatGPT стали эталоном для измерения интеллекта и предубеждений системы искусственного интеллекта. Но то, что происходит между этими шагами, было чем-то вроде черного ящика. Знание того, как и почему эти системы предоставляют ту информацию, которую они предоставляют, - как они учатся, - становится важным по мере того, как они внедряются в повседневную жизнь в областях, охватывающих здравоохранение и образование.

Бегус и его соавторы, Алан Чжоу из Университета Джона Хопкинса и Т. Кристина Чжао из Вашингтонского университета, входят в число ученых, работающих над тем, чтобы вскрыть этот ящик.

Чтобы сделать это, Бегус обратился к своему образованию в области лингвистики.

По словам Бегуса, когда мы слушаем произносимые слова, звук проникает в наши уши и преобразуется в электрические сигналы. Затем эти сигналы проходят через ствол головного мозга и достигают внешних отделов нашего мозга. С помощью эксперимента с электродами исследователи проследили этот путь в ответ на 3000 повторений одного звука и обнаружили, что мозговые волны, отвечающие за речь, точно повторяют реальные звуки языка.

Исследователи передали ту же запись звука "бах" через неконтролируемую нейронную сеть - систему искусственного интеллекта, - которая могла интерпретировать звук. Используя методику, разработанную в лаборатории речи и вычислений Беркли, они измерили совпадающие волны и задокументировали их по мере возникновения.

Предыдущие исследования требовали дополнительных шагов для сравнения волн, исходящих от мозга и машин. По словам Бегуса, изучение волн в их необработанном виде поможет исследователям понять и улучшить то, как эти системы обучаются и все чаще начинают отражать человеческое познание.

"Я действительно заинтересован как ученый в интерпретируемости этих моделей", - сказал Бегус. "Они такие могущественные. Все только о них и говорят. И все ими пользуются. Но гораздо меньше делается для того, чтобы попытаться понять их".

Бегус считает, что то, что происходит между вводом и выводом, не обязательно должно оставаться черным ящиком. Понимание того, как эти сигналы соотносятся с мозговой активностью людей, является важным ориентиром в гонке за созданием все более мощных систем. Как и знание того, что происходит под капотом.

Например, наличие такого понимания могло бы помочь установить ограждения для все более мощных моделей искусственного интеллекта. Это также могло бы улучшить наше понимание того, как ошибки и предвзятость внедряются в процессы обучения.

Бегус сказал, что он и его коллеги сотрудничают с другими исследователями, использующими методы визуализации мозга, чтобы измерить, как эти сигналы могут сравниваться. Они также изучают, как другие языки, такие как китайский, по-разному расшифровываются в мозге и что это может свидетельствовать о знаниях.

Многие модели обучаются визуальным сигналам, таким как цвета или написанный текст - и то, и другое имеет тысячи вариаций на детальном уровне. Язык, однако, открывает дверь для более глубокого понимания, сказал Бегус.

В английском языке, например, всего несколько десятков звуков.

"Если вы хотите понять эти модели, вы должны начать с простых вещей. И речь намного легче понять", - сказал Бегус. "Я очень надеюсь, что речь - это то, что поможет нам понять, как эти модели обучаются".

В когнитивной науке одной из основных целей является построение математических моделей, максимально приближенных к человеческим. Недавно задокументированное сходство мозговых волн и волн искусственного интеллекта является показателем того, насколько близки исследователи к достижению этой цели.

"Я не говорю, что нам нужно строить вещи по-человечески", - сказал Бегус. "Я не говорю, что у нас этого нет. Но важно понимать, насколько разные архитектуры похожи или отличаются от человеческих".

Комментарии

0 комментариев