Искусственному интеллекту не дают развернуться

Искусственный интеллект начал серьезно напрягать его праотцов. Недавно известные воротилы IT-бизнеса во главе с Илоном Маском опубликовали открытое письмо, адресованное братьям по оружию — разработчикам. Они просят хотя бы на полгода прекратить обучать модели а-ля ChatGPT. Правда, судя по всему, прогресс уже не остановить.

Системы ИИ с интеллектом, сопоставимым с человеческим, могут представлять серьезную опасность для общества и человечества, вдруг поняли авторы письма. Среди них генеральный директор SpaceX, Tesla и Twitter Илон Маск и сооснователь компании Apple Стив Возняк, на которых, если честно, была какая-то надежда, что они понимают, как устроен этот виртуальный мир. Тем не менее теперь, ссылаясь на исследования «ведущих лабораторий ИИ», они утверждают, что сегодня продвинутый ИИ может спровоцировать «глубокое изменение в истории жизни на Земле», и его следует планировать и управлять им «с соответствующим вниманием и ресурсами».

Авторы письма обнаружили, что в последние месяцы лаборатории ИИ вступили в неконтролируемую гонку по разработке и внедрению всё более мощных цифровых разумов, которые никто — даже их создатели — не может понять, предсказать или надежно контролировать.

В связи с этим, уверены противники ИИ в его современном виде, нужно получить независимую экспертизу, прежде чем начинать обучение будущих систем, а также договориться об ограничении темпов роста вычислений, используемых для создания новых моделей.

«Мы призываем все лаборатории ИИ немедленно приостановить как минимум на 6 месяцев обучение систем ИИ, более мощных, чем GPT-4. Эта пауза должна быть публичной, проверяемой и охватывать всех ключевых участников. Если такая пауза не может быть введена быстро, правительства должны вмешаться и ввести мораторий», — серьезно настроены авторы письма.

По их мнению, во время такой паузы лаборатории ИИ и независимые эксперты должны начать совместную разработку и внедрение набора общих протоколов безопасности для проектирования и разработки ИИ, которые будут строго проверяться и контролироваться независимыми внешними экспертами.

«Это не означает паузу в развитии ИИ в целом, а лишь отступление от опасной гонки за всё более крупными непредсказуемыми моделями «черного ящика» с эмерджентными возможностями», — считают Илон Маск и Co. Однако кто будет делать эти независимые оценки, неясно. В конце концов, и эксперты не роботы, а люди со своими слабостями.

А Баба-яга против

Тем не менее, сообщили авторы письма, уже собрано более 50 тыс. авторизованных подписей. Правда, среди них нет, например, основателя Microsoft Билла Гейтса. Наоборот, он выступает против приостановки разработки искусственного интеллекта. «Я действительно не понимаю, кто может остановиться, и согласится ли каждая страна в мире остановиться, и почему это нужно делать», — сказал Гейтс. Его позиция неудивительна, ведь Microsoft выделяет на развитие разработок OpenAI в области искусственного интеллекта около $ 10 млрд. Это та самая компания, которая создала ChatGPT.

Генеральный директор Coinbase Брайан Армстронг тоже уверен, что «комитеты и бюрократия ничего не решат» и что определенную опасность представляет любая новая технология, так что «бояться волков — в лес не ходить», а централизация решения таких вопросов до добра точно не доведет.

Экс-исполнительный директор Web3 в Mastercard Сатвик Сетхи считает, что истинные мотивы инициаторов петиции — это попытка «замедлить своих коллег, чтобы они могли продвинуться вперед», то есть банальная конкуренция.

Переполох с нежданным прорывом в области ИИ случился, когда 14 марта 2023 года компания OpenAI представила новую версию своей языковой модели на основе искусственного интеллекта, получившую обозначение GPT-4. Для тренировки нейросети применялась как раз облачная инфраструктура Microsoft Azure. По заявлениям OpenAI, во многих реальных сценариях GPT-4 демонстрирует «производительность на уровне человека».

Опять изобрели iPhone

На профильном портале IT-специалистов Habr тоже активно обсуждают эту ситуацию. Так, один из экспертов, работающий инженером по безопасности, заявил, что GPT-4 — это новый iPhone и уже не «языковая модель», а «когнитивная модель». «Результаты работы OpenAI — это сумасшедший прорыв, который случился гораздо раньше, чем предполагали все специалисты, — считает он. — В руках одной компании оказалось чудо уровня инопланетной цивилизации. OpenAI — это Apple 2010 года, это Facebook 2007. GPT-4 — это новый фактор роста порядком поскучневшего IT. В офисах всех больших компаний сейчас жарко от того, что быстро догнать лидера и повторить этот успех не представляется возможным».

К слову, Илон Маск уже не в первый раз пытается приостановить разработку решений, связанных с ИИ. Так, в 2017 году он и еще 115 экспертов просили ООН перестать использовать автономных боевых роботов. Судя по современным событиям, ничего не вышло.

Ситуацию с GPT-4 ряд экспертов также называет новой формой гонки вооружений. Собственно, в письме противники дальнейшего нерегулируемого прогресса тоже прямо говорят о том, что разработчики ИИ должны сотрудничать с политиками, чтобы «значительно ускорить разработку надежных систем управления ИИ». По их мнению, эти системы должны иметь регулирующие органы, надзор, нести ответственность за причиненный ИИ вред. Кроме того, технические исследования безопасности ИИ должны финансироваться на государственном уровне «для преодоления серьезных экономических и политических нарушений (особенно демократии), которые вызовет ИИ». Пока на уровне государств на появление GPT-4 отреагировала только Италия: страна временно запретила ChatGPT «из-за проблем с защитой данных».

Подписывайтесь на наш канал в Telegram и читайте новости раньше всех!
Актуально сегодня