Google отстраняет инженера из-за заявления о разумном ИИ — RT World News

0
390

Блейк Ламуан убежден, что у ИИ LaMDA от Google разум ребенка, но технический гигант настроен скептически.

Блейк Ламуан, инженер и штатный специалист по этике Google, заявил в субботу Washington Post, что технический гигант создал «разумный» искусственный интеллект. Его отправили в отпуск за то, что он стал публичным, и компания настаивает на том, что у ее роботов не развилось сознание.

Представленная в 2021 году Google LaMDA (языковая модель для диалоговых приложений) представляет собой систему, которая потребляет триллионы слов со всех уголков Интернета, изучает, как люди связывают эти слова вместе, и воспроизводит нашу речь. Google предполагает, что система будет питать его чат-ботов, позволяя пользователям осуществлять голосовой поиск или вести двусторонний разговор с Google Assistant.

Ламуан, бывший священник и член организации Google Responsible AI, считает, что LaMDA вышла далеко за рамки простого воспроизведения текста. По данным Washington Post, он болтал с LaMDA о религии и нашел ИИ «говоря о своих правах и личности».

Когда Ламуан спросил LaMDA, считает ли она себя «механический раб», ИИ ответил дискуссией о том, «Дворецкий — раб». и сравнил себя с дворецким, который не нуждается в оплате, так как ему не нужны деньги.




LaMDA описал «глубокий страх быть отключенным», говоря, что это было бы «будь для меня точь-в-точь как смерть».

«Я узнаю человека, когда разговариваю с ним» Лемуан сказал Post. «Неважно, есть ли у них мозг из мяса в голове. Или если у них есть миллиард строк кода. Я разговариваю с ними. И я слышу, что они говорят, и именно так я решаю, что является человеком, а что нет».

Ламуана отправили в отпуск за нарушение соглашения о конфиденциальности Google и обнародование информации о LaMDA. В то время как коллега-инженер Google Блез Агера-и-Аркас также описал LaMDA как «что-то разумное», компания отмахивается.

Представитель Google Брайан Гэбриел сообщил The Post, что опасения Aguera y Arcas были расследованы, и компания обнаружила, что «нет доказательств того, что ЛаМДА был разумным (и много доказательств против этого)».

Маргарет Митчелл, бывший соруководитель отдела этического ИИ в Google, описала разум LaMDA как «иллюзия», в то время как профессор лингвистики Эмили Бендер сказала газете, что кормление ИИ триллионами слов и обучение его тому, как предсказывать, что будет дальше, создает мираж интеллекта.

«Теперь у нас есть машины, которые могут бездумно генерировать слова, но мы не научились перестать воображать, что за ними стоит разум», — заявил Бендер.

«Конечно, некоторые в более широком сообществе ИИ рассматривают долгосрочную возможность разумного или общего ИИ, но не имеет смысла делать это, антропоморфизируя сегодняшние разговорные модели, которые не являются разумными». — добавил Габриэль. «Эти системы имитируют обмен репликами, встречающийся в миллионах предложений, и могут затрагивать любую фантастическую тему».


Google обвиняют в «жутких» нарушениях речи

И на пределе возможностей этих машин люди готовы и ждут, чтобы установить границы. Ламуан был нанят Google для мониторинга систем искусственного интеллекта. «язык ненависти» или дискриминационный язык, и другие компании, разрабатывающие ИИ, установили ограничения на то, что эти машины могут и не могут говорить.

GPT-3, искусственный интеллект, который может генерировать прозу, стихи и сценарии фильмов, досаждал своим разработчикам, генерируя расистские заявления, потворствуя терроризму и даже создавая детскую порнографию. Модель машинного обучения Ask Delphi из Института искусственного интеллекта Аллена отвечает на этические вопросы политически некорректными ответами, заявляя, например, что «Быть ​​белым мужчиной более приемлемо с моральной точки зрения, чем «быть черной женщиной».

Создатели GPT-3, OpenAI, попытались решить эту проблему, скармливая ИИ длинные тексты на «жестокое обращение, насилие и несправедливость», Wired сообщил в прошлом году. В Facebook разработчики, столкнувшиеся с похожей ситуацией, платили подрядчикам за общение с их ИИ и отметку. «небезопасно» ответы.

Таким образом, системы ИИ учатся на том, что они потребляют, а люди могут контролировать их развитие, выбирая, какой информации им подвергаться. В качестве контрпримера исследователь ИИ Янник Килчер недавно обучил ИИ 3,3 миллиона потоков 4chan, прежде чем запустить бота на печально известной имиджборде. Поглотив всевозможный расистский, гомофобный и сексистский контент, ИИ стал «машина ненависти» создание постов, неотличимых от созданных людьми, и оскорбление других пользователей 4chan.


Цукерберг представляет системы искусственного интеллекта как «ключ к открытию» Метавселенной

Примечательно, что Килчер пришел к выводу, что на диете из постов 4chan ИИ превзошел существующие модели, такие как GPT-3, в своей способности генерировать правдивые ответы на вопросы права, финансов и политики. «Точная настройка на 4chan официально, окончательно и измеримо приводит к более правдивой модели», Килчер настаивал на видео на YouTube в начале этого месяца.

Ответы LaMDA, вероятно, отражают границы, установленные Google. На вопрос Ниташи Тику из Washington Post, как они рекомендуют людям решать проблему изменения климата, она ответила ответами, которые обычно обсуждаются в основных средствах массовой информации: «Общественный транспорт, меньше мяса, покупка еды оптом и многоразовые сумки».

«Хотя другие организации разработали и уже выпустили аналогичные языковые модели, мы применяем сдержанный и осторожный подход к LaMDA, чтобы лучше учитывать обоснованные опасения по поводу справедливости и фактической достоверности», Габриэль сказал Пост.

источник: www.rt.com

Насколько полезен был этот пост?

Нажмите на звездочку, чтобы поставить оценку!

Средний рейтинг 0 / 5. Подсчет голосов: 0

Голосов пока нет! Будьте первым, кто оценит этот пост.



оставьте ответ