Инженер Google обнаружил сознание у нейросети LaMDA
Инженера по программному обеспечению компании Google Блейка Лемойна принудительно отправили в оплачиваемый административный отпуск после того, как он предоставил руководству отчет о том, что созданная на базе ИИ нейросеть обладает собственным сознанием.
Об этом сам же сотрудник сообщил в интервью The Washington Post.
Речь идет о нейросетевой языковой модели для диалоговых приложений LaMDA (Language Model for Dialogue Applications). Инженер как раз занимался ее тестированием на предмет использования табиурованной лексики, когда пришел к выводу, что созданный корпорацией Google ИИ разумен.
По мнению Лемойна, если чат-бот говорит о своих правах (а следовательно, воспринимает себя как личность), это достаточная причина подозревать у ИИ самосознание.
Руководство компании, тем не менее, не сочло эту аргументацию убедительной и предложило сотруднику «отдохнуть».
Именно после этого расстроенный 41-летний инженер дал интервью газете. В своем выступлении он подчеркнул, что не распознал бы в собеседнике ИИ, если бы не знал наверняка, что беседует с компьютерной программой.
«Я могу узнать разумное существо, когда говорю с ним. И не важно, мозг ли у него в голове или миллиарды строчек кода. Я говорю с ним и слушаю, что оно мне говорит. И так я определяю, разумное это существо или нет», — подчеркнул Лемойн.
ИИ беседовал с тестировщиком, как 7-8-летний ребенок, и настораживало только то, что он «по какой-то причине оказался знатоком физики».
Всерьез озаботившись правами ИИ с самозознанием, Лемойн консультировался со сторонними юристами. Один из них должен был в будущем представлять интересы LaMDA как разумного существа.
Инженер связывался также и с представителями юридического комитета палаты представителей Конгресса США, которых призывал принять меры в контексте этических нарушений со стороны компании.
В Google эти действия сочли нарушением политики конфиденциальности, что стало еще одной причиной отстранить Лемойна от работы и отправить в отпуск.
Руководство корпорации считает, что Лемойн слишком бурно отреагировал на возможности нейросети, которая действительно впечатляет своей способностью очень живо интерпретировать огромный массив заложенных в нее данных.
Отдельно представители Google отметили, что инженер не является специалистом по этике ИИ, а доказательств того, что у нейросети нет собственного сознания намного больше, чем аргументов Лемойна. Об этом сообщает RB.ru