Американские разработчики ИИ провели секретные переговоры с Китаем об опасности новых технологий

0
0

Американские компании OpenAI, Anthropic и Cohere, работающие в сфере искусственного интеллекта, ведут секретные переговоры с китайскими экспертами по безопасности в этой области. Это происходит на фоне всеобщей обеспокоенности относительно того, что ИИ-алгоритмы могут использоваться для распространения дезинформации и угрожать социальной сплочённости общества. Об этом пишет Financial Times со ссылкой на собственные осведомлённые источники.

Источник изображения: Gerd Altmann / pixabay.com

В сообщении сказано, что в июле и октябре прошлого года в Женеве прошли встречи с участием североамериканских экспертов и учёных, специализирующихся на политической составляющей в сере ИИ-разработок, а также представителей Университета Цинхуа и ряда других учреждений, поддерживаемых правительством Поднебесной. Осведомлённый источник рассказал, что в рамках этих встреч сторонам удалось обсудить риски, связанные с новыми технологиями, а также стимулировать инвестиции в исследования в области безопасности в сфере ИИ. Отмечается, что основной целью этих встреч был поиск безопасного пути для разработки более сложных ИИ-технологий.

«У нас нет возможности устанавливать международные стандарты безопасности и согласовывать ИИ-разработки без достижения договоренности между участниками этой группы. Если они согласятся, будет проще привлечь остальных», — сообщил осведомлённый источник.

Издание отмечает, что эти не афишированные переговоры являются редким признаком китайско-американского сотрудничества на фоне гонки за превосходство между двумя державами в области передовых технологий, таких как искусственный интеллект и квантовые вычисления. Что касается самих переговоров, то их организовала консалтинговая компания Shaikh Group и их проведении было известно в Белом Доме, а также правительствах Великобритании и Китая.

«Мы увидели возможность объединить ключевых игроков из США и Китая, работающих в сфере искусственного интеллекта. Нашей главной целью было подчеркнуть уязвимости, риски и возможности, связанные с широким внедрением ИИ-моделей, которые используются во всём мире. Признание этих фактов, на наш взгляд, может стать основой для совместной научной работы, что в конечном счёте приведёт к разработке глобальных стандартов безопасности для ИИ-моделей», — прокомментировал данный вопрос Салман Шейх (Salman Shaikh), исполнительный директор Shaikh Group.

Участники переговоров обсудили возможности в плане технического сотрудничества сторон, а также более конкретные политические предложения, которые легли в основу дискуссий во время заседания Совета Безопасности ООН по ИИ в июле 2023 года и британского ИИ-саммита в ноябре 2023 года. По словам источников, успех прошедших встреч позволил разработать план дальнейших переговоров, в рамках которых будут изучаться конкретные научно-технические предложения, направленные на то, чтобы привести сферу ИИ в соответствие с правовыми кодексами, а также нормами и ценностями каждого общества.

Источник: 3Dnews.ru