Vietnam.vn - Nền tảng quảng bá Việt Nam

Độc lập - Tự do - Hạnh phúc

Китай и Запад определили «красные линии» рисков, связанных с ИИ

Công LuậnCông Luận19/03/2024


На прошлой неделе в Пекине собралась группа видных международных экспертов, которые определили «красные линии» в развитии ИИ, включая создание биологического оружия и проведение кибератак.

В заявлении, опубликованном через несколько дней после встречи, ученые предупредили, что необходим единый подход к безопасности ИИ, чтобы предотвратить «катастрофические или даже экзистенциальные риски для человечества при нашей жизни».

«В разгар холодной войны международное научное и государственное сотрудничество помогло предотвратить ядерную катастрофу. Человечество должно вновь объединить усилия, чтобы предотвратить катастрофу, которая может возникнуть из-за беспрецедентных технологий», — говорится в заявлении.

Китайские и западные учёные определяют границу океана, изображение 1

Эксперты Международного диалога по безопасности ИИ в Пекине обозначили «красные линии» в развитии ИИ. Фото: FT

Среди подписавших письмо — Джеффри Хинтон и Йошуа Бенджио, которых часто называют «отцами» искусственного интеллекта; Стюарт Рассел, профессор компьютерных наук Калифорнийского университета; и Эндрю Яо, один из самых выдающихся китайских ученых-компьютерщиков.

Заявление было сделано после состоявшегося на прошлой неделе в Пекине Международного диалога по безопасности ИИ, на встрече с участием официальных лиц правительства Китая, которые выразили свое одобрение форуму и его результатам.

Президент США Джо Байден и председатель КНР Си Цзиньпин встретились в ноябре прошлого года и обсудили безопасность ИИ, договорившись о начале диалога по этому вопросу. Ведущие мировые компании в области ИИ также в последние месяцы проводили частные встречи с китайскими экспертами в этой области.

В ноябре 2023 года 28 стран, включая Китай, и ведущие компании в области ИИ договорились о широком обязательстве по совместной работе над устранением экзистенциальных рисков, возникающих из-за развития ИИ, на саммите по безопасности ИИ, организованном канцлером Великобритании Риши Сунаком.

На прошлой неделе в Пекине эксперты обсудили угрозы, связанные с развитием «общего искусственного интеллекта» (ОИИ), или систем ИИ, которые равны человеку или превосходят его.

«Главным предметом обсуждения стали красные линии, которые не должна пересекать ни одна мощная система ИИ и которые правительствам всего мира следует устанавливать при разработке и внедрении ИИ», — сказал Бенжио.

Эти красные линии гарантируют, что «ни одна система ИИ не сможет воспроизводить или совершенствовать себя без явного согласия и поддержки человека» или «предпринимать действия, которые неоправданно увеличивают ее мощь и влияние».

Ученые добавили, что ни одна система не «существенно расширит возможности субъектов по разработке оружия массового уничтожения, нарушению конвенции о биологическом или химическом оружии» или не сможет «автоматически проводить кибератаки, которые приведут к серьезным финансовым потерям или эквивалентному вреду».

Хоанг Хай (по данным FT)



Источник

Комментарий (0)

No data
No data

Та же тема

Та же категория

Итоги учений A80: сила Вьетнама сияет под покровом ночи тысячелетней столицы
На дорогах Ханоя после сильного дождя водители бросают машины на затопленных дорогах
Впечатляющие моменты дежурства лётного состава на торжественной церемонии запуска A80
Более 30 военных самолетов впервые выступят на площади Бадинь

Тот же автор

Наследство

Фигура

Бизнес

No videos available

Новости

Политическая система

Местный

Продукт