Глава DeepMind содействовал продвижению искусственного интеллекта — теперь он призывает к осторожности
Демис Хассабис стоит на полпути вверх по винтовой лестнице, осматривая построенный им собор. Позади него свет отражается от перекладин золотой спирали, поднимающейся вверх через воздушный колодец лестницы. Скульптура ДНК, занимающая три этажа, является центральным элементом недавно открытой лондонской штаб-квартиры DeepMind. Это художественное изображение кода, заложенного в ядре почти каждой клетки человеческого тела. «Хотя мы работаем над тем, чтобы сделать машины умными, мы хотели сохранить человечество в центре того, что мы здесь делаем», — говорит TIME Хассабис, генеральный директор и соучредитель DeepMind. Это здание, по его словам, является «собором знаний». Каждая переговорная комната названа в честь известного ученого или философа; мы встречаемся в комнате, посвященной Джеймсу Клерку Максвеллу, человеку, который впервые теоретизировал электромагнитное излучение. «Я всегда думал о DeepMind как об оде интеллекту», — говорит Хассабис.
46-летний Хассабис всегда был одержим идеей интеллекта: что это такое, какие возможности он открывает и как получить его больше. В 12 лет он был вторым лучшим шахматистом в мире для своего возраста и окончил среднюю школу на год раньше. Во взрослом возрасте он выглядит несколько миниатюрным, но его интеллектуальная аура заполняет комнату. «Я хочу понять большие вопросы, действительно большие вопросы, которые обычно изучают в философии или физике, если вы ими интересуетесь», — говорит он. «Я подумал, что создание ИИ — это самый быстрый путь к ответу на некоторые из этих вопросов».
DeepMind — дочерняя компания материнской компании Google, Alphabet — является одной из ведущих лабораторий искусственного интеллекта в мире. Прошлым летом она объявила, что один из ее алгоритмов, AlphaFold, предсказал 3D-структуры почти всех известных человечеству белков, и что компания предоставляет технологию, лежащую в его основе, в свободный доступ. Ученые давно знакомы с последовательностями аминокислот, из которых состоят белки, строительные блоки жизни, но никогда не понимали, как они складываются в сложные трехмерные формы, столь важные для их поведения в человеческом организме. AlphaFold уже помог сотням тысяч ученых, работающих над такими задачами, как разработка вакцин против малярии, борьба с устойчивостью к антибиотикам и решение проблемы загрязнения окружающей среды пластиком, говорят в компании. Теперь DeepMind применяет аналогичные методы машинного обучения к загадке ядерного синтеза, надеясь, что это поможет получить обильный источник дешевой, безуглеродной энергии, которая может избавить мировую экономику от ископаемого топлива на критическом этапе климатического кризиса.
Хассабис говорит, что эти усилия — только начало. Он и его коллеги работают над гораздо более грандиозной целью: созданием искусственного интеллекта общего назначения (AGI) путем создания машин, которые могут думать, обучаться и быть настроены на решение самых сложных проблем человечества. Сегодняшний ИИ узкий, хрупкий и зачастую не очень умный. Но AGI, считает Хассабис, станет «эпохальной» технологией, подобно использованию электричества, которая изменит саму ткань человеческой жизни. Если он прав, то это может обеспечить ему такое место в истории, которое отодвинет тезок его конференц-залов на второй план.
Но будущие достижения ИИ также сулят и опасности. В последние месяцы исследователи, создающие систему ИИ для разработки новых лекарств, обнаружили, что их инструмент может быть легко перепрофилирован для производства новых смертоносных химических веществ. Отдельная модель ИИ, обученная риторике ненависти и вражды, стала вирусной, продемонстрировав опасность для уязвимых сообществ в Интернете. В лабораториях ИИ по всему миру эксперты в вопросах политики решали ближайшие вопросы, например, что делать, если ИИ может быть использован государствами-изгоями для проведения широкомасштабных хакерских кампаний или получения информации о ядерных секретах на государственном уровне. В декабре 2022 года ChatGPT, чат-бот, разработанный конкурирующей с DeepMind компанией OpenAI, стал вирусным благодаря своей кажущейся способности писать почти как человек, но подвергся критике за склонность к расизму и дезинформации. Так же, как и крошечная компания Prisma Labs, за селфи с улучшенным искусственным интеллектом в приложении Lensa. Многие пользователи жаловались, что Lensa сексуализирует их изображения, выявляя предвзятость в обучающих данных. То, что когда-то было сферой деятельности нескольких крупных технологических компаний, становится все более доступным. Поскольку вычислительные мощности становятся дешевле, а методы ИИ становятся все более известными, для проведения передовых исследований больше не нужен собор с высокими стенами.
Именно в таком неопределенном климате Хассабис соглашается на редкое интервью, чтобы рассказать о своих растущих опасениях. «Я бы посоветовал не двигаться быстро и не ломать вещи», — говорит он, ссылаясь на старый девиз Facebook, который призывал инженеров сначала выпустить свои технологии в мир, а потом устранять возникающие проблемы. С тех пор эта фраза стала синонимом разрушения. Эта культура, которой впоследствии подражало целое поколение стартапов, помогла Facebook взлететь до 3 миллиардов пользователей. Но она также оставила компанию совершенно неподготовленной, когда на ее платформе стали появляться дезинформация, язык ненависти и даже подстрекательство к геноциду. Хассабис видит аналогичную тревожную тенденцию в развитии ИИ. Он говорит, что ИИ сейчас находится «на пороге» создания инструментов, которые могут нанести глубокий ущерб человеческой цивилизации, и призывает своих конкурентов действовать более осторожно, чем раньше. «Когда речь идет об очень мощных технологиях — а очевидно, что ИИ будет одной из самых мощных в истории — нам нужно быть осторожными», — говорит он. «Не все думают об этих вещах. Это как экспериментаторы, многие из которых не понимают, что держат в руках опасный материал». Хуже того, отмечает Хассабис, мы сами являемся подопытными кроликами.
Хассабису было всего 15 лет, когда он вошел в студию видеоигр Bullfrog в Гилфорде, расположенном на холмах к юго-западу от Лондона. В детстве он всегда был одержим играми. Не только шахматы — главный источник его трофеев — но и те игры, в которые можно было играть на ранних компьютерах. Теперь он хотел помочь в их создании. Он принял участие в конкурсе в журнале о видеоиграх, чтобы выиграть стажировку в престижной студии. Его программа — игра в стиле Space Invaders, где игроки стреляли в шахматные фигуры, спускающиеся с верхней части экрана, — заняла второе место. Ему пришлось довольствоваться недельной стажировкой.
Питер Молиньё, соучредитель Bullfrog, до сих пор помнит, как впервые увидел Хассабиса. Он был похож на эльфа из «Властелина колец», — говорит Молиньё. «Пришел этот маленький стройный паренек, мимо которого вы, наверное, просто прошли бы по улице и даже не заметили. Но в его глазах был блеск: блеск интеллекта». В случайном разговоре в автобусе на рождественской вечеринке Bullfrog подросток очаровал Молиньё. «Вся дорога туда и вся дорога обратно была самой интеллектуально вдохновляющей беседой», — вспоминает он. Они говорили о философии игр, о том, что именно в человеческой психике делает победу такой привлекательной, и о том, можно ли привить эти же черты машине. Все время я думал: «Это же просто ребенок!». Тогда он понял, что этот молодой человек предназначен для великих свершений.
Пара быстро подружилась. Хассабис вернулся в Bullfrog летом перед поступлением в Кембриджский университет и провел большую часть этого времени с Молиньё, играя в настольные и компьютерные игры. Молиньё вспоминает о яростном соперничестве. «Я побеждал его почти во всех компьютерных играх, особенно в стратегических», — говорит Молиньё. «Он невероятно склонен к соревнованию». Но хвастовство Молиньё было недолгим. Вместе, в поисках интересной игровой динамики, которая могла бы стать основой следующего хита видеоигр, они придумали карточную игру, которую назвали «Манекен». Хассабис обыграл Молиньё 35 раз подряд.
После окончания Кембриджа Хассабис вернулся в Bullfrog, чтобы помочь Молиньё создать его самую популярную на сегодняшний день игру: Theme Park, симулятор, позволяющий игроку взглянуть на расширяющийся ярмарочный бизнес с высоты птичьего полёта. В дальнейшем Хассабис основал свою собственную игровую компанию, а затем решил получить докторскую степень в области нейронаук. Он хотел понять алгоритмический уровень мозга: не взаимодействие между микроскопическими нейронами, а более крупные архитектуры, которые, казалось, порождают мощный интеллект человечества. «Разум — самый интригующий объект во Вселенной», — говорит Хассабис. Он пытался понять, как он работает, готовясь к поискам всей своей жизни. «Без понимания того, что я все это время имел в виду ИИ, это выглядит как случайный путь», — говорит Хассабис о своей карьерной траектории: шахматы, видеоигры, нейронауки. «Но я использовал каждый клочок этого опыта».
В 2013 году, когда DeepMind было уже три года, в компанию постучалась Google. Группа её руководителей прилетела в Лондон на частном самолете, и Хассабис поразил их, продемонстрировав прототип искусственного интеллекта, который его команда научила играть в компьютерную игру Breakout. Фирменная техника DeepMind, лежащая в основе алгоритма, — обучение с подкреплением — была тем, чем Google в то время еще не занимался. Она была вдохновлена тем, как учится человеческий мозг, что Хассабис понял во время работы нейробиологом. ИИ играл в игру миллионы раз и получал вознаграждение каждый раз, когда набирал несколько очков. В результате процесса подкрепления, основанного на наборе очков, он научится оптимальной стратегии. Хассабис и его коллеги горячо верили в возможность обучения ИИ в игровой среде, и дивиденды этого подхода впечатлили руководителей Google. «Они мне сразу понравились», — говорит Алан Юстас, бывший старший вице-президент Google, возглавлявший разведку.
Внимание Хассабиса к опасностям ИИ стало очевидным с первой же беседы с Юстасом. «Он был достаточно вдумчив, чтобы понять, что технология имеет долгосрочные последствия для общества, и он хотел понять их до того, как технология была изобретена, а не после того, как она была внедрена», — говорит Юстас. «Это как в шахматах. Каков эндшпиль? Как она будет развиваться, не только на два, но и на 20 шагов вперед?».
Юстас заверил Хассабиса, что Google разделяет эти опасения и что интересы DeepMind совпадают с его собственными. Миссия Google, сказал Юстас, заключается в том, чтобы проиндексировать все знания человечества, сделать их доступными и в конечном итоге повысить IQ во всем мире. «Я думаю, это нашло отклик», — говорит он. В следующем году Google приобрел DeepMind примерно за 500 миллионов долларов. Хассабис отклонил более крупное предложение от Facebook. Одной из причин, по его словам, было то, что, в отличие от Facebook, Google был «очень рад принять» этические «красные линии» DeepMind «как часть приобретения». (В то время сообщалось, что Google согласился создать независимый совет по этике, чтобы гарантировать, что эти границы не будут пересечены). Основатели начинающей лаборатории ИИ также рассудили, что глубокие карманы мегакорпорации позволят им получить доступ к талантам и вычислительным мощностям, которые они иначе не смогли бы себе позволить.
В стеклянном шкафу, занимающем дальнюю стену вестибюля лондонской штаб-квартиры DeepMind, среди других памятных вещей первых 12 лет жизни компании, лежит большой квадрат дерева, испещренный черными каракулями. Это сувенир, оставшийся после первого крупного переворота DeepMind. Вскоре после приобретения Google компания поставила перед собой задачу разработать алгоритм, способный победить лучшего в мире игрока в древнюю китайскую настольную игру Го. Шахматы уже давно были покорены грубой силой компьютерного программирования, но Го была намного сложнее; лучшие алгоритмы ИИ все еще не могли сравниться с лучшими человеческими игроками. DeepMind решила эту проблему так же, как они решили Breakout. Они создали программу, которая, обучившись правилам игры, наблюдая за игрой людей, миллионы раз сыграла практически сама с собой. Благодаря обучению с подкреплением алгоритм обновлял себя, уменьшая «веса» решений, которые повышали вероятность проигрыша, и увеличивая «веса» решений, которые повышали вероятность победы. На турнире в Корее в марте 2016 года алгоритм, названный AlphaGo, сразился с Ли Седолем, одним из лучших игроков в го в мире. AlphaGo выиграл у него со счетом 4:1. Поверженный Ли черной маркерной ручкой нацарапал свою подпись на обратной стороне доски для игры в го, на которой была сыграна та роковая серия из пяти матчей. Хассабис подписался от имени AlphaGo, а DeepMind оставила доску себе в качестве трофея. Специалисты не ожидали преодоления этого рубежа в течение десяти лет. Это стало подтверждением того, что Хассабис предложил Google: лучший способ расширить границы ИИ — сосредоточиться на обучении с подкреплением в игровой среде.
Но как раз в тот момент, когда DeepMind достигла новых высот, все начало усложняться. В 2015 году два самых первых инвестора компании, миллиардеры Питер Тиль и Илон Маск, символически отвернулись от DeepMind, профинансировав конкурирующий стартап OpenAI. Эта лаборатория, впоследствии получившая 1 миллиард долларов от Microsoft, также верила в возможность AGI, но у нее была совсем другая философия того, как к этому прийти. Она не была так заинтересована в играх. Большая часть её исследований была сосредоточена не на обучении с подкреплением, а на обучении без учителя — другой технике, которая предполагает сбор огромного количества данных из Интернета и проталкивание их через нейронные сети. По мере того, как компьютеры становились все мощнее, а данных становилось все больше, эти методы, казалось, достигли огромного прогресса в возможностях.
В то время как DeepMind, Google и другие лаборатории ИИ работали над подобными исследованиями за закрытыми дверями, OpenAI с большей готовностью позволила общественности использовать свои инструменты. В конце 2022 года она запустила программу DALL-E 2, умеющей генерировать изображение практически любого поискового термина, который только можно себе представить, и чат-бот ChatGPT. Поскольку оба этих инструмента были обучены на данных, взятых из Интернета, они страдают от структурной пристрастности и неточностей. DALL-E 2 склонен представлять юристов как пожилых белых мужчин, а стюардесс как молодых красивых женщин, в то время как ChatGPT склонен к уверенным заявлениям ложного содержания (в чем убедился и Gadgets News — см. ChatGPT: как мы побеседовали с предтечей будущих голосовых ассистентов). В неумелых руках, говорится в исследовательской работе DeepMind 2021 года, инструменты генерации языка, такие как ChatGPT и его предшественник GPT-3, могут ускорить распространение дезинформации, способствовать правительственной цензуре или слежке, а также увековечить вредные стереотипы под видом объективности. (OpenAI признает, что его приложения имеют ограничения, включая предубеждения, но говорит, что работает над их минимизацией, и что его миссия заключается в создании безопасного AGI на благо человечества).
Но несмотря на призывы Хассабиса замедлить гонку ИИ, похоже, что DeepMind не застрахована от конкурентного давления. В начале 2022 года компания опубликовала проект более быстрого двигателя. Исследование под названием Chinchilla показало, что многие из самых передовых моделей в отрасли были обучены неэффективно, и объяснило, как можно добиться большего потенциала при том же уровне вычислительной мощности.
Примечание Gadgets News: вот что пишут про Chinchilla (большую языковую модель, представленную в марте 2022), авторы Telegram-канала gonzo-обзоры ML статей): Эта недавняя модель знаменита тем, что при сильно меньшем числе параметров побеждает тяжеленные GPT-3 (175 млрд параметров), Gopher (280 млрд параметров), Jurassic-1 (178 млрд параметров) и Megatron-Turing NLG (530 млрд параметров). И, кстати, Chinchilla сильно подкорректировала предсказания про развитие ИИ в сторону, что всё будет быстрее, чем ожидалось.
Хассабис говорит, что внутренний совет по этике DeepMind обсудил, не будет ли обнародование результатов исследования неэтичным, учитывая риск того, что это может позволить менее щепетильным компаниям выпускать более мощные технологии без надежных ограждений. Одной из причин, по которой они решили опубликовать исследование, было то, что «мы были не единственными, кто знал» об этом явлении. Он говорит, что DeepMind также рассматривает возможность выпуска своего собственного чат-бота под названием Sparrow для «частной бета-версии» в 2023 году. (Задержка связана с тем, чтобы DeepMind мог поработать над функциями, основанными на обучении с подкреплением, которых не хватает ChatGPT, например, над цитированием своих источников. «Правильно, что мы проявляем осторожность в этом вопросе», — говорит Хассабис.) Но он признает, что вскоре компании, возможно, придется изменить свои расчеты. «Мы вступаем в эпоху, когда мы должны начать думать о халявщиках, или о людях, которые читают, но не вносят свой вклад в эту информационную базу», — говорит он. «Это касается и национальных государств». Он отказывается сказать какие государства имеет в виду — «довольно очевидно, про кого вы думаете», — но предполагает, что культура индустрии ИИ, связанная с открытой публикацией своих результатов, возможно, скоро должна закончиться.
Хассабис хочет, чтобы мир воспринимал DeepMind как эталон безопасных и этичных исследований ИИ, подающий пример в области, где много других, нацеленных на скорость. DeepMind опубликовала «красные линии» против неэтичного использования своих технологий, включая слежку и использование оружия. Но ни DeepMind, ни Alphabet публично не сообщили, какими юридическими полномочиями обладает DeepMind, чтобы помешать своей материнской компании — империи слежки, которая участвовала в контрактах Пентагона — преследовать эти цели с помощью ИИ, создаваемого DeepMind. В 2021 году Alphabet прекратила многолетние переговоры с DeepMind о создании дочерней компанией независимой юридической структуры, которая не позволит её ИИ контролироваться одной корпорацией, сообщает Wall Street Journal. Хассабис не отрицает, что DeepMind предпринимала такие попытки, но преуменьшает любые предположения о том, что он обеспокоен тем, что нынешняя структура небезопасна. Когда его попросили подтвердить или опровергнуть, существует ли на самом деле независимый совет по этике, который, по слухам, был создан в рамках приобретения Google, он ответил, что не может этого сделать, поскольку это «все конфиденциально». Но он добавляет, что после приобретения этическая структура DeepMind «эволюционировала» «в те структуры, которые мы имеем сейчас».
Хассабис говорит, что и DeepMind, и Alphabet обязались придерживаться публичных этических рамок и с самого начали встраивать безопасность в свои инструменты. В DeepMind есть свой внутренний совет по этике, Комитет по институциональному анализу (Institutional Review Committee, IRC), в который входят представители всех подразделений компании под председательством главного операционного директора Лилы Ибрагим (Lila Ibrahim). По словам Ибрагим, IRC проводит регулярные заседания, и любые разногласия передаются руководителям DeepMind для принятия окончательного решения. «Мы работаем с большой свободой», — говорит она. «У нас есть отдельный процесс рассмотрения: у нас есть собственный внутренний комитет по проверке этики; мы сотрудничаем по вопросам передового опыта и извлечения уроков». На вопрос, что происходит, если руководство DeepMind не согласно с руководством Alphabet или если пересекаются «красные линии», Ибрагим лишь отвечает: «Мы еще не сталкивались с этим вопросом».
Одной из любимых игр Хассабиса в настоящее время является стратегия под названием Polytopia. Цель игры — превратить маленькую деревню в империю мирового господства путем постепенного технологического прогресса. Рыбалка, например, открывает путь к мореплаванию, что в конечном итоге приводит к тому, что ваши корабли начинают стрелять из пушек и бороздить океаны. К концу игры, если вы грамотно направляли свой технологический прогресс, вы будете сидеть на вершине сияющей, сложной империи, а ваши враги будут лежать у ваших ног. (Илон Маск, по словам Хассабиса, тоже поклонник этой игры. В последний раз, когда пара беседовала несколько месяцев назад, Polytopia была главной темой их разговора. «Нам обоим очень нравится эта игра», — говорит Хассабис).
Хотя мировоззрение Хассабиса гораздо более тонкое и осторожное — легко понять, почему этос игры находит в нем отклик. Он по-прежнему считает, что технический прогресс по своей сути полезен для человечества, и что при капитализме можно предсказать и смягчить риски ИИ. «Научно-технический прогресс — вот что движет цивилизацией», — говорит он.
Хассабис считает, что богатство от AGI, если оно появится, должно быть перераспределено. «Я думаю, что мы должны убедиться в том, что выгоды получат как можно больше людей — в идеале, все человечество». Ему нравятся идеи безусловного базового дохода, при котором каждый гражданин получает ежемесячное пособие от правительства, и всеобщих базовых услуг, когда государство оплачивает основные жизненные стандарты, такие как транспорт или жилье. Он говорит, что будущее на основе AGI должно быть более экономически равным, чем сегодняшний мир, не объясняя при этом, как будет работать такая система. «Если вы находитесь в [мире] радикального изобилия, то должно быть меньше возможностей для такого неравенства и меньше способов, которыми оно может возникнуть. Так что это одно из положительных последствий видения AGI, если оно будет реализовано».
Другие менее оптимистичны в отношении того, что это утопическое будущее наступит — учитывая, что последние несколько десятилетий рост технологической индустрии совпал с огромным ростом неравенства в благосостоянии. «Крупные корпорации, включая корпорацию, владеющую DeepMind, должны обеспечивать максимальную выгоду для акционеров; они не сосредоточены на решении климатического кризиса, если это не приносит прибыли; и уж точно не заинтересованы в перераспределении богатства, когда вся цель компании — накопить еще больше богатства и распределить его среди акционеров», — говорит Пэрис Маркс, ведущая подкаста Tech Won’t Save Us. «Не признавать эти вещи — значит не учитывать в полной мере потенциальное воздействие технологии». Alphabet, Amazon и Meta вошли в число 20 корпораций, которые потратили больше всего денег на лоббирование интересов американских законодателей в 2022 году, согласно данным организации Open Secrets, следящей за прозрачностью. «Нам не хватает не технологий для решения климатического кризиса или перераспределения богатства», — говорит Маркс. «Чего нам не хватает, так это политической воли. И трудно понять, как простое создание новой технологии создаст политическую волю для более структурных преобразований общества».
Вернувшись к винтовой лестнице DeepMind, сотрудник объясняет, что скульптура ДНК предназначена для вращения, но сегодня мотор сломан. При ближайшем рассмотрении видно, что некоторые перекладины спирали перекошены. Внизу лестницы на деревянном табурете перед этой гигантской метафорой человечества висит объявление. «Пожалуйста, не трогайте», — гласит надпись. «Очень хрупко и может легко повредиться».
Time (перевод с английского выполнен при помощи DeepL)