Как ИИ знает то, о чем ему никто не говорил

 Исследователи все еще пытаются понять, как модели искусственного интеллекта, обученные воспроизводить интернет-текст, могут выполнять сложные задачи, такие как запуск кода, игры и попытки разорвать брак.

Пока еще никто не знает, как ChatGPT и его родственники с искусственным интеллектом изменят мир, и одна из причин заключается в том, что никто на самом деле не знает, что происходит внутри них. Возможности некоторых из этих систем выходят далеко за рамки того, чему их обучали, и даже их изобретатели не понимают, почему. Растущее число тестов предполагает, что эти системы ИИ создают внутренние модели реального мира, как это делает наш собственный мозг, хотя техника машин отличается.

«Все, что мы хотим сделать с ними, чтобы сделать их лучше, безопаснее или что-то в этом роде, кажется мне нелепым, если мы не понимаем, как они работают», — говорит Элли Павлик из Университета Брауна. один из исследователей, работающих над заполнением этого объяснительного пробела.

На каком-то уровне она и ее коллеги отлично понимают GPT (сокращение от генеративного предварительно обученного преобразователя) и другие большие языковые модели, или LLM. Модели основаны на системе машинного обучения, называемой нейронной сетью. Такие сети имеют структуру, приблизительно смоделированную по образцу связанных нейронов человеческого мозга. Код этих программ относительно прост и занимает всего несколько экранов. Он устанавливает алгоритм автокоррекции, который выбирает наиболее вероятное слово для завершения отрывка на основе кропотливого статистического анализа сотен гигабайт интернет-текста. Дополнительное обучение гарантирует, что система представит свои результаты в форме диалога. В этом смысле все, что он делает, — это повторяет то, чему научился, — это « стохастический попугай».», по словам Эмили Бендер, лингвиста из Вашингтонского университета. Но LLM также сумели блестяще сдать экзамен на адвоката , объяснить бозон Хиггса пятистопным ямбом и сделать попытку разрушить брак своих пользователей . Мало кто ожидал, что довольно простой алгоритм автокоррекции обзаведется такими широкими возможностями.

Тот факт, что GPT и другие системы ИИ выполняют задачи, для которых они не были обучены, давая им «эмерджентные способности», удивил даже исследователей, которые в целом скептически относились к ажиотажу вокруг LLM. «Я не знаю, как они это делают и могут ли они делать это в более широком смысле, как это делают люди, но они бросили вызов моим взглядам», — говорит Мелани Митчелл, исследователь ИИ из Института Санта-Фе.

«Это, безусловно, гораздо больше, чем стохастический попугай, и он, безусловно, строит некоторое представление о мире, хотя я не думаю, что это совсем похоже на то, как люди строят модель внутреннего мира», — говорит Йошуа Бенжио, исследователь ИИ из Университета. Монреаля.

На конференции в Нью-Йоркском университете в марте философ Рафаэль Мильер из Колумбийского университета привел еще один потрясающий пример того, на что способны LLM. Модели уже продемонстрировали способность писать компьютерный код, что впечатляет, но не слишком удивительно, потому что в Интернете так много кода, который можно имитировать. Однако Мильер пошел еще дальше и показал, что GPT также может выполнять код. Философ набрал программу для вычисления 83-го числа в последовательности Фибоначчи. «Это многошаговое рассуждение очень высокой степени, — говорит он. И бот это сделал. Однако, когда Мильер напрямую спросил 83-е число Фибоначчи, GPT ошибся: это говорит о том, что система не просто повторяла Интернет. Скорее он выполнял свои собственные расчеты, чтобы получить правильный ответ.

Хотя LLM работает на компьютере, сам по себе он не является компьютером. В нем отсутствуют важные вычислительные элементы, такие как рабочая память. Молчаливо признавая, что GPT сам по себе не должен запускать код, его изобретатель, технологическая компания OpenAI, с тех пор представила специализированный плагин — инструмент, который ChatGPT может использовать при ответе на запрос, — который позволяет ему это делать. . Но этот плагин не использовался в демонстрации Мильера. Вместо этого он предполагает, что машина импровизировала память, задействовав свои механизмы для интерпретации слов в соответствии с их контекстом — ситуация, аналогичная тому, как природа перепрофилирует существующие способности для новых функций.

Эта импровизация показывает, что LLM развивают внутреннюю сложность, которая выходит далеко за рамки поверхностного статистического анализа. Исследователи обнаруживают, что эти системы, по-видимому, достигают подлинного понимания того, чему они научились. В одном исследовании, представленном на прошлой неделе на Международной конференции по репрезентациям обучения (ICLR), докторант Кеннет Ли из Гарвардского университета и его коллеги-исследователи ИИ — Аспен К. Хопкинс из Массачусетского технологического института, Дэвид Бау из Северо-восточного университета и Фернанда Вьегас , Ханспетер Пфистер и Мартин Ваттенберг из Гарварда создали собственную уменьшенную копию нейронной сети GPT, чтобы изучить ее внутреннюю работу. Они тренировали его на миллионах матчей настольной игры «Отелло».путем подачи длинных последовательностей ходов в текстовой форме. Их модель стала практически идеальным игроком.

Чтобы изучить, как нейронная сеть кодирует информацию, они применили метод, который Бенжио и Гийом Ален из Университета Монреаля разработали в 2016 году. Они создали миниатюрную «зондовую» сеть для послойного анализа основной сети. Ли сравнивает этот подход с методами нейробиологии. «Это похоже на то, когда мы вводим электрический зонд в человеческий мозг», — говорит он. В случае с ИИ исследование показало, что его «нейронная активность» соответствовала представлению игрового поля «Отелло», хотя и в запутанной форме. Чтобы подтвердить это, исследователи запустили зонд в обратном порядке, чтобы внедрить информацию в сеть — например, перевернув один из черных маркеров игры на белый. «По сути, мы взламываем мозг этих языковых моделей, — говорит Ли. Сеть соответствующим образом скорректировала свои действия. Исследователи пришли к выводу, что он играл с Отелло примерно как человек: держа игровое поле перед своим «мысленным взором» и используя эту модель для оценки ходов. Ли говорит, что, по его мнению, система усваивает этот навык, потому что это наиболее экономное описание ее обучающих данных. «Если вам дали множество игровых сценариев, попытка выяснить правило, лежащее в основе этого, — лучший способ сжатия», — добавляет он.

Эта способность делать выводы о структуре внешнего мира не ограничивается простыми игровыми ходами; это также проявляется в диалогах. Белинда Ли (не родственница Кеннета Ли), Максвелл Най и Джейкоб Андреас, все в Массачусетском технологическом институте, изучали сети, которые играли в текстовую приключенческую игру. Они питались такими предложениями, как «Ключ в сундуке с сокровищами», а затем «Возьми ключ». Используя зонд, они обнаружили, что сети закодировали внутри себя переменные, соответствующие «сундуку» и «тебе», каждая из которых имеет свойство обладать ключом или нет, и обновляли эти переменные предложение за предложением. У системы не было независимого способа узнать, что такое коробка или ключ, но она подбирала понятия, необходимые для этой задачи. «Внутри модели скрыто некоторое представление о состоянии, — говорит Белинда Ли.

Исследователи удивляются тому, как много LLM могут узнать из текста. Например, Павлик и ее тогдашний доктор философии. студент Рома Патель обнаружил, что эти сети поглощают описания цветов из интернет-текста и создают внутренние представления цвета. Когда они видят слово «красный», они воспринимают его не просто как абстрактный символ, а как понятие, имеющее определенное отношение к темно-бордовому, малиновому, фуксии, ржавчине и так далее. Продемонстрировать это было несколько сложно. Вместо того, чтобы вставлять зонд в сеть, исследователи изучили его реакцию на серию текстовых подсказок. Чтобы проверить, было ли это просто отражением цветовых отношений из онлайн-справок, они попытались ввести систему в заблуждение, сказав ей, что красный цвет на самом деле зеленый — как в старом философском мысленном эксперименте, в котором красный для одного человека является зеленым для другого.

Подхватывая идею о том, что для выполнения своей функции автокоррекции система ищет логику, лежащую в основе ее обучающих данных, исследователь машинного обучения Себастьен Бубек из Microsoft Research предполагает, что чем шире диапазон данных, тем более общие правила система обнаружит. «Возможно, мы наблюдаем такой огромный скачок, потому что мы достигли разнообразия данных, достаточно большого, чтобы единственным основополагающим принципом для всего этого было то, что их произвели разумные существа», — говорит он. «Поэтому единственный способ объяснить все эти данные — это [для модели] стать разумной».

Помимо извлечения основного значения языка, LLM могут учиться на лету. В области ИИ термин «обучение» обычно зарезервирован для интенсивного вычислительного процесса, в котором разработчики предоставляют нейронной сети доступ к гигабайтам данных и настраивают ее внутренние соединения. К тому времени, когда вы введете запрос в ChatGPT, сеть должна быть исправлена; в отличие от людей, он не должен продолжать учиться. Поэтому стало неожиданностью, что LLM действительно учатся на подсказках своих пользователей — способность, известная как «обучение в контексте». «Это другой вид обучения, о существовании которого раньше никто не подозревал», — говорит Бен Герцель, основатель компании SingularityNET, занимающейся искусственным интеллектом.

Одним из примеров обучения LLM является то, как люди взаимодействуют с чат-ботами, такими как ChatGPT. Вы можете дать системе примеры того, как вы хотите, чтобы она реагировала, и она подчинится. Его результаты определяются несколькими последними тысячами слов, которые он видел. То, что он делает с этими словами, предписывается его фиксированными внутренними связями, но, тем не менее, последовательность слов предлагает некоторую адаптируемость. Целые веб-сайты посвящены подсказкам о «побеге из тюрьмы», которые преодолевают «ограждения» системы — ограничения, которые мешают системе сообщать пользователям, например, как сделать самодельную бомбу, — обычно заставляя модель притворяться системой без ограждений. Некоторые люди используют джейлбрейк для поверхностных целей, а другие используют его, чтобы получить более творческие ответы. «Это ответит на научные вопросы, я бы сказал, лучше», чем если бы вы просто задали его прямо, без специальной подсказки о побеге из тюрьмы, говорит Уильям Хан, содиректор Лаборатории машинного восприятия и когнитивной робототехники в Атлантическом университете Флориды. «Лучше на стипендию».

Другой тип обучения в контексте происходит через подсказку «цепочка мыслей», что означает просьбу к сети объяснить каждый шаг ее рассуждений — тактика, которая позволяет ей лучше справляться с логическими или арифметическими задачами, требующими нескольких шагов. (Но одна вещь, которая сделала пример Мильера таким удивительным, это то, что сеть нашла число Фибоначчи без какого-либо обучения.)

В 2022 году команда Google Research и Швейцарского федерального технологического института в Цюрихе — Йоханнес фон Освальд, Эйвинд Никлассон, Этторе Рандаццо, Жоао Сакраменто, Александр Мордвинцев, Андрей Жмогинов и Макс Владимиров — показали, что контекстное обучение следует той же базовой вычислительной технике. процедура стандартного обучения, известная как градиентный спуск. Эта процедура не была запрограммирована; система обнаружила его без посторонней помощи. «Этому навыку нужно научиться», — говорит Блез Агуэра-и-Аркас, вице-президент Google Research. На самом деле, он считает, что у LLM могут быть другие скрытые способности, которые еще никто не обнаружил. «Каждый раз, когда мы проверяем новую способность, которую можем измерить, мы находим ее», — говорит он.

Хотя у LLM достаточно слепых зон, чтобы их нельзя было квалифицировать как общий искусственный интеллект или ОИИ (термин, обозначающий машину, которая достигает находчивости мозга животных), эти возникающие способности предполагают некоторых исследователей, что технологические компании ближе к ОИИ, чем предполагали даже оптимисты. «Это косвенное свидетельство того, что мы, вероятно, не так уж далеки от ОИИ», — сказал Герцель в марте на конференции по глубокому обучению в Атлантическом университете Флориды. Плагины OpenAI дали ChatGPT модульную архитектуру, немного похожую на человеческий мозг. «Объединение GPT-4 [последняя версия LLM, на которой работает ChatGPT] с различными плагинами может стать путем к человеческой специализации функций», — говорит исследователь Массачусетского технологического института Анна Иванова.

В то же время, однако, исследователи опасаются, что окно их способности изучать эти системы может закрываться. OpenAI не разглашает подробности того, как он разработал и обучил GPT-4 , отчасти потому, что он конкурирует с Google и другими компаниями, не говоря уже о других странах. «Возможно, в промышленности будет меньше открытых исследований, и все будет более разрозненно и организовано вокруг создания продуктов», — говорит Дэн Робертс, физик-теоретик из Массачусетского технологического института, который применяет методы своей профессии для понимания ИИ.

И это отсутствие прозрачности не только вредит исследователям; это также препятствует попыткам понять социальные последствия стремления внедрить технологию ИИ. «Прозрачность этих моделей — самое важное для обеспечения безопасности», — говорит Митчелл.

Источник

No comments:

Post a Comment

🐙 Ancient Octopus Discovery

Scientists have discovered fossil evidence suggesting that giant octopuses , reaching up to 62 feet in length, were apex predators during th...