Что означает распространение искусственного интеллекта для целостности информации?
Миссия Латвии при ООН
Сессия 175
Глобальный цифровой договор вводит обязательства по целостности информации - доступ к релевантной, надежной и точной информации и знаниям, необходимым для инклюзивного, открытого, безопасного и защищенного цифрового пространства. Договор также поощряет развитие безопасных, защищенных и надежных систем искусственного интеллекта. Разрушительное распространение ИИ требует срочных действий для выполнения этих обязательств.
Обзор WSIS+20, который будет завершен в этом году, не должен игнорировать недавние проблемы, которые искусственный интеллект ставит перед информационной целостностью. WSIS после 20 лет должен рассмотреть стратегии смягчения потенциального негативного воздействия на права человека, демократию и верховенство закона, вызванного непреднамеренным вредом или неправомерным использованием цифровых технологий. Чтобы обеспечить это, WSIS должен поддерживать и укреплять свой подход к цифровой трансформации, основанный на правах человека и многостороннем подходе.
Так же, как генеративные инструменты ИИ становятся все более мощными, они также быстро становятся все более доступными и доступными. Распространение ИИ несет с собой риски фрагментации, манипуляции и потери доверия в цифровом публичном пространстве. Особую обеспокоенность вызывают растущие риски, возникающие из-за злонамеренного использования ИИ, например, для манипулирования информацией с помощью все более совершенных синтетических аудио- и видеотехнологий и алгоритмического микротаргетинга. Другие риски связаны со сбоями, которые могут нанести непреднамеренный вред, например, проблемы с надежностью из-за «галлюцинаций», а также социальные и политические предубеждения.
По мере того, как страны продвигаются вперед с принятием ИИ для обеспечения экономического роста и процветания, борьба с этими рисками становится практической необходимостью. Хотя полный эффект, который ИИ окажет на целостность информации, пока неизвестен, некоторые стратегии смягчения рисков могут быть реализованы уже сейчас. Во-первых, принятие ИИ и грамотность в области ИИ должны идти рука об руку. Во-вторых, как правительствам, так и гражданскому обществу необходимо создать практические возможности на основе ИИ для обнаружения, понимания и устранения рисков, связанных с ИИ, таких как преднамеренное манипулирование информацией. В-третьих, необходимы международные нормы и национальные нормативные ограничения для обеспечения того, чтобы ИИ был открытым, инклюзивным, прозрачным, этичным, безопасным, надежным и заслуживающим доверия.
В продолжение прошлогоднего мероприятия на ВВУИО эта панельная дискуссия представит обновленную информацию о состоянии дел в области наращивания потенциала, развития нормативно-правовой базы и исследований, которые могут помочь всем странам использовать знания и опыт для поддержки свободной, открытой, безопасной и защищенной онлайн-среды, устойчивой к негативным последствиям манипулирования информацией в эпоху ИИ.
Спикеры рассмотрят следующие вопросы:
• Какова текущая оценка рисков и возможностей, которые технологии ИИ представляют для целостности информации сегодня и в ближайшем будущем?
• Какие инструменты доступны правительствам и гражданскому обществу для снижения рисков для целостности информации, связанных с ИИ, и обеспечения развития ИИ как надежной, основанной на правах человека и прозрачной технологии?
• Каким образом страны и другие заинтересованные стороны могут работать вместе для решения вышеуказанных проблем в глобальном масштабе, в том числе в рамках ООН?




-
C5. укрепление доверия и безопасности при использовании ИКТ
-
C9. СМИ
-
С10. Этические аспекты информационного общества
-
С11. Международное и региональное сотрудничество
-
Цель 16: Поощрение справедливых, мирных и инклюзивных обществ