Демис Хассабис: для достижения AGI потребуется несколько дополнительных инноваций
На днях на ресурсе Wired было опубликовано интервью с человеком, который наравне с Сэмом Олтменом, Ильей Суцкевером, Яном Лекуном и еще несколькими специалистами является самым осведомленным человеком на Земле относительно перспектив развития искусственного интеллекта. Это Демис Хассабис, глава Google DeepMind — компании, в которой были созданы и продолжают создаваться многие революционные продукты в области ИИ. Предлагаем это интервью вашему вниманию.
Gemini Pro 1.5 может принимать на вход гораздо больше данных, чем его предшественник. Кроме того, он более мощный для своего размера, благодаря архитектуре под названием «смесь экспертов». Почему это так важно?
Теперь вы можете загрузить короткометражный фильм разумного размера. Я могу представить, что это будет супер полезно, если есть какая-то тема, которую вы изучаете, есть лекция длительностью в один час, вы хотите найти какой-то конкретный факт, или когда они что-то делали. Думаю, что для этого найдется множество действительно интересных вариантов применения.
Мы изобрели смесь экспертов — это сделал Джефф Дин (главный ученый Google DeepMind), и мы разработали новую версию. Эта новая версия Gemini Pro еще не прошла полные испытания, но она имеет примерно такую же производительность, как самая крупная из предыдущего поколения архитектуры. Ничто не мешает нам создать модель Ultra-размера с этими инновациями, и, очевидно, это то, над чем мы работаем.
За последние несколько лет увеличение компьютерных мощностей и данных, используемых для обучения модели ИИ, стало тем, что привело к удивительным достижениям. Говорят, что Сэм Олтмен собирается привлечь до 7 трлн долларов для создания новых чипов для ИИ. Является ли увеличение мощности компьютеров тем, что откроет AGI?
Я считаю, что для достижения AGI вам понадобится еще несколько инноваций, а также максимальный масштаб. Масштабирование не останавливается, мы не видим асимптоту или что-то в этом роде. Нам еще предстоит добиться успехов. Поэтому я считаю, что нужно расширять существующие методы, чтобы увидеть, как далеко они заходят, но вы не получите новых возможностей, таких как планирование, использование инструментов или агентоподобное поведение, просто масштабируя существующие методы. Это не произойдет волшебным образом.
Означает ли это, что конкуренция между компаниями, занимающимися разработкой ИИ, в будущем будет все больше сводиться к использованию инструментов и агентов — ИИ, который делает что-то, а не просто общается? По сообщениям, OpenAI работает над этим.
Вероятно. Мы уже давно на этом пути; это наш хлеб с маслом — агенты, обучение с подкреплением и планирование — еще со времен AlphaGo». [В 2016 году DeepMind разработала прорывной алгоритм, способный решать сложные задачи и играть в сложные игры]. Мы перебираем разные идеи, думая о некой комбинации возможностей AlphaGo, построенной поверх этих больших моделей. Полагаю, возможности самонаблюдения и планирования помогут с такими проблемами как галлюцинации.
Довольно забавно, что если сказать «Будь внимательнее» или «Продумай свои рассуждения», то иногда модель работает лучше. Происходит так, что вы настраиваете её на то, чтобы она была немного более логичной в своих шагах. Но вы бы предпочли, чтобы это было систематическим явлением.
Это определенно огромная область. Мы инвестируем много времени и энергии в эту область, и мы думаем, что это будет качественным изменением в возможностях таких систем — когда они начнут становиться более похожими на агентов. Мы активно инвестируем в этом направлении, и я полагаю, другие тоже.
Разве это не сделает модели ИИ более проблемными или потенциально опасными?
Я всегда говорил на форумах и конференциях по безопасности, что это большой скачок. Как только у нас заработают системы, подобные агентам, ИИ будет ощущаться совсем не так, как текущие системы, которые по сути являются пассивными системами вопросов и ответов, потому что они внезапно станут активными учениками. Конечно, они станут более полезными, потому что смогут делать задания за вас, действительно выполнять их. Но нам придется быть гораздо осторожнее.
Я всегда выступал за тестирование агентов в жестких имитационных песочницах перед тем, как выпускать их в Интернет. Есть много других предложений, но я думаю, что отрасль должна начать действительно думать о появлении таких систем. Возможно, это займет пару лет, а может и меньше. Но это системы другого класса.
Вы ранее говорили, что на тестирование вашей самой мощной модели Gemini Ultra ушло больше времени. Это просто из-за скорости разработки, или потому, что модель оказалась фактически более проблематичной?
На самом деле и то, и другое. Прежде всего, чем больше модель, тем сложнее настраивать некоторые вещи, поэтому это занимает больше времени.. Более крупные модели также имеют больше возможностей, которые нужно протестировать.
Надеюсь, вы заметили, что по мере того, как Google DeepMind оформляется в единую организацию, мы выпускаем продукты как можно раньше и экспериментально поставляем их небольшому количеству людей, чтобы посмотреть, что нам скажут наши доверенные ранние тестировщики, и затем можем внести изменения перед общим релизом.
А что насчет безопасности, как продвигается обсуждение с такими правительственными организациями, как Британский институт безопасности ИИ?
Все идет хорошо. Я не уверен, могу ли я что-то говорить, поскольку все это довольно конфиденциально, но, конечно, у них есть доступ к нашим передовым моделям, они тестировали Ultra, и мы продолжаем тесно сотрудничать с ними. Я думаю, что сейчас создается американский аналог. Есть хорошие результаты саммита по безопасности ИИ в Блетчли-парке. Они могут проверять то, на что у нас нет допуска по соображениям безопасности — типа химического, биологического, радиологического и ядерного оружия.
Я не думаю, что нынешние системы достаточно мощные, чтобы сделать что-то существенное, вызывающее беспокойство. Но сейчас полезно наращивать эту мощь со всех сторон — и со стороны правительства, и со стороны промышленности, и со стороны научных кругов. И я думаю, что агентские системы станут следующим большим шагом вперед. Мы увидим постепенные улучшения на этом пути. И, возможно, какие-то крутые, большие улучшения — но это будет уже нечто совсем другое.