Ведущие разработчики ИИ назвали свои продукты угрозой, сравнимой с пандемией и ядерной войной

0
3

Главы компаний OpenAI, Google DeepMind, Anthropic и других лабораторий искусственного интеллекта предупредили, что технологии, над которыми они работают, могут поставить под угрозу существование человечества, поэтому их следует отнести к категории социальных рисков наряду с пандемиями и ядерными войнами.

5805d5f057294570451c294d729f1cf1

Источник изображений: Gerd Altmann / pixabay.com

«Снижение риска вымирания из-за ИИ должно быть глобальным приоритетом наравне с другими рисками общественного масштаба, такими как пандемии и ядерные войны», — гласит открытое письмо лидеров отрасли, состоящее всего из одного предложения. Как ожидается, документ будет опубликован некоммерческой организацией Center for AI Safety. Его подписали более 350 руководителей, исследователей и инженеров, работающих в сфере ИИ.

Среди подписантов, в частности, значатся: глава OpenAI Сэм Альтман (Sam Altman); глава подразделения Google DeepMind Демис Хассабис (Demis Hassabis); глава Anthropic Дарио Амодеи (Dario Amodei), а также Джеффри Хинтон (Geoffrey Hinton) и Йошуа Бенджио (Yoshua Bengio) — двое из трёх обладателей Премии Тьюринга, считающиеся «крёстными отцами» современного искусственного интеллекта, тогда как третий, Янн ЛеКун (Yann LeCun), возглавляющий исследования в области ИИ в Meta*, на текущий момент подпись ещё не поставил.

fa9ea2f1df75263f33db0f0dba317e0f

В обществе действительно растёт обеспокоенность по поводу дальнейшего развития систем искусственного интеллекта. Есть мнение, что платформы масштаба ChatGPT смогут использовать для распространения дезинформации и пропаганды, кроме того, только в Европе и США из-за ИИ могут лишиться работы 300 млн человек. Эти опасения разделяют и лидеры отрасли, которые тем самым ставят сами себя в необычное положение: они утверждают, что разрабатываемые ими технологии представляют серьёзные риски и должны жёстко регулироваться государством.

Некоторые скептики уверяют, что технологии ИИ пока слишком незрелы, чтобы представлять ощутимую угрозу человечеству, поэтому следует сосредоточиться на вопросах краткосрочной перспективы — предвзятых и некорректных ответах систем ИИ. Другие же считают, что сравнимый с возможностями человека ИИ появится уже в ближайшем будущем. Во избежание возможных негативных последствий лидеры отрасли предлагают создать организацию, направленную на регулирование ИИ — это должен быть своего рода аналог Международного агентства по атомной энергии (МАГАТЭ), которое пытается не допустить распространение и применение ядерного оружия.

В марте более тысячи исследователей и представителей технологической отрасли подписали открытое письмо с призывом на полгода приостановить разработку передовых систем ИИ, объявив их угрозой человечеству. Очередной документ в оригинале содержит всего 22 слова — лаконичная формулировка призвана объединить экспертов, мнения которых могут расходиться по отдельным вопросам. «Думаю, если с этой технологией что-то пойдёт не так, то всё будет совсем не так. И мы хотим заявить об этом. Мы хотим сотрудничать с правительством, чтобы это предотвратить», — заявил глава OpenAI Сэм Альтман в ходе недавних слушаний в Конгрессе США.

* Внесена в перечень общественных объединений и религиозных организаций, в отношении которых судом принято вступившее в законную силу решение о ликвидации или запрете деятельности по основаниям, предусмотренным Федеральным законом от 25.07.2002 № 114-ФЗ «О противодействии экстремистской деятельности».

Источник: 3Dnews.ru