Google не любит, когда ему показывают неудобные проблемы, экс-этичный со-руководитель ИИ «уволен» техническим гигантом за свое исследование, говорит RT

0
403

Google подавил Тимнит Гебру, бывшего соруководителя группы по этическому ИИ, потому что она не только выявила предвзятость в своих больших языковых моделях, но и призвала к структурным изменениям в области ИИ, сказал Гебру в интервью Going Underground.

Доктор Гебру была первой чернокожей женщиной-исследователем в Google, и ее скандальное расставание с технологическим гигантом в прошлом году попало в заголовки газет. Это последовало за ее отказом выполнить требование компании об отзыве статьи об этических проблемах, связанных с большими языковыми моделями (LLM), которые используются в Google Translate и других приложениях. Гебру утверждает, что ее уволили за ее позицию, в то время как Google утверждает, что она подала заявление об увольнении.

В понедельник в выпуске программы RT Going Underground она рассказала ведущей шоу Афшин Раттанси, почему рассталась с Google.

Этический ИИ — это «Область, которая пытается гарантировать, что, когда мы работаем над технологией искусственного интеллекта, мы работаем над этим с предвидением и пытаемся понять, каковы потенциальные негативные социальные эффекты, и минимизировать их», — сказал Гебру.

Именно этим она и занималась в Google до того, как, по ее мнению, была уволена компанией. «Я никогда не скажу, что ушел в отставку. Это не произойдет,» — сказал Гебру.

В документе 2020 года, подготовленном экспертом и ее коллегами, подчеркивается «Экологические и финансовые затраты» о больших языковых моделях и предостерегал от того, чтобы делать их слишком большими. LLM «потребляют много компьютерной мощности», — пояснила она. «Итак, если вы работаете над все более крупными языковыми моделями, только люди с такими огромными вычислительными мощностями смогут их использовать … Те, кто извлекает выгоду из LLM, не те, кто оплачивает затраты». И такое положение дел сводилось к «Экологический расизм», она сказала.



Также на rt.com
Facebook приносит свои извинения за то, что его искусственный интеллект наложил ярлык « приматы » на видео о чернокожих


Большие языковые модели используют данные из Интернета для обучения, но это не обязательно означает, что они включают все мнения, доступные в Интернете, сказал Гебру, американец эфиопского происхождения. В документе подчеркивается «Опасности» такого подхода, который потенциально мог привести к обучению ИИ включению предвзятого и ненавистного контента.

С помощью LLM вы можете получить что-то, что звучит действительно плавно и связно, но это совершенно неверно.

По ее словам, наиболее ярким примером этого является случай с палестинцем, который якобы был арестован израильской полицией после того, как алгоритмы Facebook ошибочно перевели его сообщение, в котором говорилось: «Доброе утро,» в качестве «Атакуй их».

Гебру сказала, что обнаружила, что ее начальникам в Google это действительно не понравилось. «Всякий раз, когда вы показывали им проблему, и это было неудобно» или слишком большой для них, чтобы признать это. Действительно, компания хотела, чтобы она отказалась от своей академической рецензируемой статьи, которая должна была быть опубликована на научной конференции. Она настаивает, что это требование не было подтверждено никакими рассуждениями или исследованиями, и ее руководители просто сказали это. «Показал слишком много проблем» с LLM.

Стратегия крупных игроков, таких как Google, Facebook и Amazon, состоит в том, чтобы притвориться предвзятым искусственным интеллектом. «Чисто техническая проблема, чисто алгоритмическая проблема … [that] он не имеет ничего общего с антимонопольным законодательством, монополиями, трудовыми вопросами или динамикой власти. Это чисто техническая вещь, над которой нам нужно работать », — сказал Гебру.



Также на rt.com
Новый документ Netflix «Coded Bias» настолько стремится показать, что ИИ является расистом, что игнорирует то, как техническая тирания унижает ВСЕГО человека


«Нам нужны правила. И я думаю, что … поэтому все эти организации и компании хотели жестко обрушиться на меня и еще несколько человек: потому что они думают, что то, за что мы выступаем, — это не простая алгоритмическая настройка, а более масштабные структурные изменения », она сказала.

По словам Гебру, когда другие информаторы пошли по ее стопам, общество наконец начало понимать необходимость регулирования разработок в области ИИ, добавив, что общественность также должна быть готова защищать от их давления тех, кто раскрывает правонарушения корпораций.

Покинув Google, Гебру создал группу «Черный в искусственном интеллекте», чтобы объединить ученых, занимающихся цветом, работающих в области искусственного интеллекта. Она также собирает междисциплинарную исследовательскую группу для продолжения своей работы в этой области. Она сказала, что не будет стремиться заработать много денег с помощью этого некоммерческого проекта, потому что «Если ваша цель номер один — максимизировать прибыль, вы собираетесь срезать углы» и в конечном итоге создадут полную противоположность этическому ИИ.



Также на rt.com
«Кровь на моих руках»: второй «информатор» Facebook выступает с призывом к подавлению контента, говорит, что даст показания в Конгрессе.


Нравится эта история? Поделись с другом!

источник: www.rt.com

Насколько полезен был этот пост?

Нажмите на звездочку, чтобы поставить оценку!

Средний рейтинг 0 / 5. Подсчет голосов: 0

Голосов пока нет! Будьте первым, кто оценит этот пост.



оставьте ответ