Стремительное развитие искусственного интеллекта (ИИ) вызывает опасения, что он развивается быстрее, чем люди могут оценить его влияние.
Фото: СТ
Использование ИИ значительно возросло после появления таких инструментов, как ChatGPT. Хотя эти инструменты обладают множеством преимуществ, их также можно использовать во вред.
Чтобы управлять этим риском, Соединенные Штаты и ряд других стран заключили соглашения с семью компаниями, включая Amazon, Anthropic, Google, Inflection, Meta, Microsoft и OpenAI, обязующимися применять безопасные методы разработки технологий искусственного интеллекта.
Заявление Белого дома содержит в себе жаргон, который может быть незнаком среднестатистическому человеку, например, «красная команда» и «водяные знаки». Вот семь терминов, связанных с ИИ, на которые стоит обратить внимание.
Машинное обучение
Эта область искусственного интеллекта направлена на обучение машин точному выполнению определённой задачи путём выявления закономерностей. Машина затем может делать прогнозы на основе этих данных.
Глубокое обучение
Творческие задачи ИИ часто опираются на глубокое обучение — метод, который включает в себя обучение компьютеров с использованием нейронных сетей — набора алгоритмов, имитирующих работу нейронов человеческого мозга, для создания сложных связей между шаблонами для генерации текста, изображений или другого контента.
Поскольку модели глубокого обучения имеют несколько слоев нейронов, они могут изучать более сложные закономерности, чем традиционное машинное обучение.
Большая языковая модель
Большая языковая модель (LLM) обучается на больших объёмах данных и предназначена для моделирования языка или предсказания следующего слова в последовательности. Большие языковые модели, такие как ChatGPT и Google Bard, могут использоваться для решения таких задач, как реферирование, перевод и ведение диалога.
Алгоритм
Набор инструкций или правил, позволяющих машинам делать прогнозы, решать проблемы или выполнять задачи. Алгоритмы могут предоставлять рекомендации по покупкам, помогать в выявлении мошенничества и реализации функций чата службы поддержки клиентов.
Предвзятость
Поскольку ИИ обучается на больших наборах данных, он может включать в них вредоносную информацию, например, высказывания, разжигающие ненависть. Расизм и сексизм также могут присутствовать в наборах данных, используемых для обучения ИИ, что приводит к созданию вводящего в заблуждение контента.
Компании, занимающиеся разработкой ИИ, согласились глубже изучить вопрос о том, как избежать вредоносной предвзятости и дискриминации в системах ИИ.
Красная команда
Одним из обязательств, взятых компаниями перед Белым домом, является проведение «красных команд» внутри и за пределами моделей и систем ИИ.
«Red teaming» подразумевает тестирование модели для выявления потенциальных уязвимостей. Этот термин происходит из военной практики, когда команда имитирует действия атакующего, чтобы разработать стратегию.
Этот метод широко используется для проверки уязвимостей безопасности в таких системах, как платформы облачных вычислений таких компаний, как Microsoft и Google.
Водяные знаки
Водяной знак — это способ определить, создано ли аудио- или видеоматериал с помощью искусственного интеллекта. Проверяемые факты могут включать информацию о том, кто создал материал, а также о том, как и когда он был создан или отредактирован.
Например, Microsoft пообещала снабжать изображения водяными знаками, созданные с помощью её инструментов искусственного интеллекта. Компании также пообещали Белому дому снабжать изображения водяными знаками или регистрировать их происхождение… чтобы идентифицировать их как созданные с помощью искусственного интеллекта.
Водяные знаки также широко используются для отслеживания нарушений прав интеллектуальной собственности. Водяные знаки на изображениях, созданных с помощью искусственного интеллекта, могут выглядеть как незаметный шум, например, небольшое изменение каждого седьмого пикселя.
Однако нанесение водяных знаков на текст, сгенерированный ИИ, может оказаться более сложным и может потребовать настройки шаблона слова, чтобы его можно было идентифицировать как контент, сгенерированный ИИ.
Хоанг Тон (по данным Пойнтера)
Источник
Комментарий (0)