Vietnam.vn - Nền tảng quảng bá Việt Nam

Китай и Запад определили «красные линии» рисков ИИ

Công LuậnCông Luận19/03/2024


На прошлой неделе в Пекине собралась группа видных международных экспертов, на которой они определили «красные линии» в развитии ИИ, включая создание биологического оружия и проведение кибератак.

В заявлении, сделанном через несколько дней после встречи, ученые предупредили, что необходим единый подход к безопасности ИИ, чтобы предотвратить «катастрофические или даже экзистенциальные риски для человечества в течение нашей жизни».

«В разгар холодной войны международное научное и правительственное сотрудничество помогло предотвратить ядерную катастрофу. Человечество должно снова объединить усилия, чтобы предотвратить катастрофу, которая может возникнуть из-за беспрецедентных технологий», — говорится в заявлении.

Китайские и западные ученые определяют границу океана изображение 1

Эксперты Международного диалога по безопасности ИИ в Пекине определили «красные линии» в развитии ИИ. Фото: FT

Среди подписавших письмо — Джеффри Хинтон и Йошуа Бенджио, которых часто называют «отцами» ИИ; Стюарт Рассел, профессор компьютерных наук Калифорнийского университета; и Эндрю Яо, один из самых выдающихся китайских ученых-компьютерщиков.

Заявление было сделано после состоявшегося на прошлой неделе в Пекине Международного диалога по безопасности искусственного интеллекта, на котором присутствовали представители правительства Китая, чтобы выразить свое одобрение форуму и его результатам.

Президент США Джо Байден и председатель КНР Си Цзиньпин встретились в ноябре прошлого года и обсудили безопасность ИИ, договорившись начать диалог по этому вопросу. Ведущие мировые компании ИИ также встречались в частном порядке с китайскими экспертами ИИ в последние месяцы.

В ноябре 2023 года на саммите по безопасности ИИ, организованном канцлером Великобритании Риши Сунаком, 28 стран, включая Китай, и ведущие компании в области ИИ договорились о широком обязательстве по совместной работе над устранением экзистенциальных рисков, возникающих в результате использования передового ИИ.

На прошлой неделе в Пекине эксперты обсудили угрозы, связанные с разработкой «искусственного интеллекта общего назначения» (ИИО), или систем ИИ, которые равны человеку или превосходят его.

«Основным предметом обсуждения стали красные линии, которые не должна пересекать ни одна мощная система ИИ и которые правительства по всему миру должны устанавливать при разработке и внедрении ИИ», — сказал Бенджио.

Эти красные линии гарантируют, что «ни одна система ИИ не сможет воспроизводить или улучшать себя без явного одобрения и поддержки со стороны человека» или «предпринимать действия, которые неоправданно увеличивают ее мощь и влияние».

Ученые добавили, что ни одна система не «существенно расширит возможности субъектов по разработке оружия массового поражения, нарушению Конвенции о биологическом или химическом оружии» или не сможет «автоматически проводить кибератаки, которые приводят к серьезным финансовым потерям или эквивалентному вреду».

Хоанг Хай (по данным FT)



Источник

Комментарий (0)

No data
No data

Та же тема

Та же категория

Небо над рекой Хан «абсолютно кинематографично»
Мисс Вьетнам 2024 по имени Ха Трук Линь, девушка из Фуйена
DIFF 2025 — взрывной рост летнего туристического сезона в Дананге
Следуй за солнцем

Тот же автор

Наследство

Фигура

Бизнес

No videos available

Новости

Политическая система

Местный

Продукт