Human Constanta: Готовы ли крупные социальные сети к дипфейкам и другой дезинформации, создаваемой с помощью ИИ накануне выборов

07 March 2024, 12:50 PM
Human Constanta: Готовы ли крупные социальные сети к дипфейкам и другой дезинформации, создаваемой с помощью ИИ накануне выборов

Human Constanta

В 2024 году в более, чем 50 странах мира пройдут президентские или парламентские выборы. Это год-рекордсмен по их числу. Эксперт_ки опасаются, что крупнейшие социальные сети не готовы бороться с дезинформацией, создаваемой искусственным интеллектом (ИИ), что делает избирател_ниц уязвимыми.

Дезинформация в социальных сетях растет в преддверии года выборов: от дипфейковых видео с кандидатами в президенты Индонезии до разжигания ненависти в Интернете в адрес мусульман Индии, и эксперт_ки говорят, что технологические платформы не готовы к этому вызову.

В этом году пройдут выборы в Бангладеш, Тайване, Индонезии, Пакистана, Индии, США и других странах.То есть в разных уголках мира в выборах в 2024 году будет участвовать более половина населения планеты — порядка 4 миллиардов человек.

Несмотря на высокие ставки и данные предыдущих опросов о том, как фальшивый онлайн-контент может повлиять на избирател_ниц, эксперт_ки по цифровым правам говорят, что платформы социальных сетей плохо подготовлены к неизбежному росту дезинформации и разжигания ненависти.

Недавние увольнения в крупных технологических компаниях, новые законы, контролирующие онлайн-контент, которые связывают модераторов, а также инструменты искусственного интеллекта (ИИ), которые облегчают распространение дезинформации, могут нанести больший вред бедным странам, сказал Сабханаз Рашид Дия, эксперт по безопасности платформ.

«Во многих странах ситуация на самом деле ухудшилась со времени последнего избирательного цикла: субъекты, злоупотребляющие платформами, стали более изощренными, но ресурсы для борьбы с ними не увеличились», — сказал Дия, основатель Tech Global Institute.

«Из-за массовых увольнений приоритеты изменились. К этому добавляется большой объем новых правил… платформы должны им соответствовать, поэтому у них нет ресурсов для активного решения более широкой экосистемы контента (и) экосистемы честности выборов. Это непропорционально повлияет на глобальный Юг», который обычно получает меньше ресурсов от технологических компаний», — сказала она.

Поскольку инструменты генеративного ИИ, такие как Midjourney, Stable Diffusion и DALL-E, упрощают и удешевляют создание убедительных дипфейков, растет обеспокоенность по поводу того, как такие материалы могут быть использованы для введения в заблуждение или запутывания избирател_ниц в преддверии выборов.

Созданные искусственным интеллектом дипфейки уже использовались для обмана избирателей от Новой Зеландии до Аргентины и США, и власти изо всех сил стараются не отставать от технологий, хотя и обещают бороться с дезинформацией.

Европейский Союз, где в июне пройдут выборы в Европейский парламент, требует, чтобы технологические компании четко обозначали политическую рекламу и указывали, кто за нее заплатил, в то время как ИТ-правила Индии «явно запрещают распространение дезинформации», сообщает Министерство электроники и информации. Технология отмечена в прошлом месяце.

Компания Google, принадлежащая Alphabet, заявила, что планирует на своих платформах, в том числе на YouTube , маркировать контент, созданный ИИ, и политическую рекламу, в которой используются материалы, измененные в цифровом формате, а также ограничить запросы, связанные с выборами , на которые может отвечать чат-бот Bard и поиск на основе ИИ.

«Команды YouTube, занимающиеся выборами, следят за развитием событий в режиме реального времени… в том числе путем выявления и мониторинга тенденций в рискованных формах контента и принятия соответствующих мер до того, как они станут более серьезными проблемами», — заявил представитель YouTube.

Владелец Facebook Meta Platforms, которому также принадлежат WhatsApp и Instagram, заявил, что запретит политическим кампаниям и рекламодателям использовать свои генеративные продукты ИИ в рекламе.

У Meta есть «комплексная стратегия для выборов, которая включает в себя выявление и устранение разжигания ненависти и контента, провоцирующего насилие, сокращение распространения дезинформации, повышение прозрачности политической рекламы (и) партнерство с властями для борьбы с контентом, нарушающим местное законодательство». сказал представитель.

X, ранее известный как Twitter, не ответил на просьбу прокомментировать свои меры по борьбе с дезинформацией, связанной с выборами. TikTok, запрещенный в Индии, также не отреагировал.

Виртуальный мир и насилие в реальном времени

Дезинформация в социальных сетях имела разрушительные последствия накануне и после предыдущих выборов во многих странах, где избирател_ницы собираются прийти на избирательные участки в этом году.

В Индонезии, где голосование состоится 14 февраля, количество мистификаций и призывов к насилию в социальных сетях резко возросло после результатов выборов 2019 года. В ходе последующих беспорядков погибли по меньшей мере шесть человек.

В Пакистане, где общенациональное голосование запланировано на 8 февраля, в социальных сетях процветали разжигание ненависти и дезинформация в преддверии всеобщих выборов 2018 года, которые были омрачены серией взрывов, в результате которых погибли десятки людей по всей стране.

В прошлом году жестокие столкновения после ареста сторонников заключенного в тюрьму бывшего премьер-министра Имрана Хана привели к отключению Интернета и блокировке социальных сетей. Бывший герой крикета Хан был арестован по обвинению в коррупции в 2022 году и приговорен к трем годам тюремного заключения.

Хотя компании, занимающиеся социальными сетями, разработали передовые алгоритмы для борьбы с дезинформацией, «эффективность этих инструментов может быть ограничена местными нюансами и сложностями языков, отличных от английского», — сказал Нууррианти Джалли, доцент Университета штата Оклахома.

Кроме того, критические выборы в США и глобальные события, такие как конфликт между Израилем и Хамасом и российско-украинская война, могут «подорвать ресурсы и сосредоточить внимание, которые в противном случае могли бы быть направлены на подготовку к выборам в других регионах», добавила она.

В Бангладеш за несколько месяцев до выборов 7 января вспыхнули жестокие протесты. Голосование было бойкотировано главной оппозиционной партией, и премьер-министр Шейх Хасина выиграла четвертый срок подряд.

Согласно недавнему исследованию исследовательской компании Digitally Right, политическая реклама на Facebook — крупнейшей социальной сети в стране с более чем 44 миллионами пользователей — обычно неправильно маркируется или не содержит заявлений об отказе от ответственности и ключевых деталей, что выявляет пробелы в процессе проверки платформы.

Кроме того, отчет, опубликованный в прошлом месяце Техническим глобальным институтом Дии, показал, насколько сложно было определить связь между страницами и группами Facebook и двумя ведущими политическими партиями Бангладеш или выяснить, что представляет собой «авторитетная информация» от любой из сторон. Facebook не прокомментировал исследования.

Не подготовлен «дистанционно»

В прошлом году Meta, X и Alphabet отменили как минимум 17 основных политик, направленных на сдерживание разжигания ненависти и дезинформации, и уволили более 40 000 человек, включая команды, которые поддерживали целостность платформы, сообщила американская некоммерческая организация Free Press.

«Поскольку в 2024 году по всему миру пройдут десятки национальных выборов, обязательства по обеспечению целостности платформ становятся более важными, чем когда-либо. Однако крупные компании, занимающиеся социальными сетями, даже отдаленно не готовы к предстоящему избирательному циклу», — пишет в отчете юрист по гражданским правам Нора Бенавидес. «Без политики и команд, необходимых им для модерации оскорбительного контента, платформы рискуют усилить путаницу, препятствовать вовлечению избирателей и создать возможности для манипулирования сетями с целью подрыва демократических институтов».

Некоторые правительства отреагировали на это кажущееся отсутствие контроля введением ограничительных законов о высказываниях и выражениях в Интернете, и это может привести к тому, что платформы социальных сетей будут чрезмерно усиливать модерацию контента, говорят технические эксперт_ки.

Индия, где, как многие ожидают, что премьер-министр Нарендра Моди выиграет третий срок, ужесточила требования к удалению контента, ввела положения об индивидуальной ответственности для фирм и предупредила, что компании могут потерять защиту «безопасной гавани», которая защищает их от ответственности за сторонний контент, если они не соблюдать.

«Юридическое обязательство создает дополнительную нагрузку на платформы… если безопасная гавань окажется под угрозой, платформа непреднамеренно пересилит требования, поэтому в конечном итоге она удалит гораздо больше контента», — сказала Дия.

Для Рамана Джита Сингха Чимы, директора по политике в Азии некоммерческой организации Access Now, проблема заключается в подготовке. Он говорит, что крупные технологические компании не смогли взаимодействовать с гражданским обществом накануне выборов и не предоставили достаточно информации на местных языках.

«Цифровые платформы еще более важны для этого избирательного цикла, но они не созданы для решения проблем, связанных с выборами, и они не прозрачны в отношении своих мер по смягчению вреда. Это очень беспокоит», — сказал он.

Перевод материала, источник: context.news

See more news

Лаборатория цифровых свобод: Существует ли приватность в работе с Искусственным интеллектом (ИИ)
12 September 2024, 9:00 AM
Лаборатория цифровых свобод: Существует ли приватность в работе с Искусственным интеллектом (ИИ)
Искусственный интеллект (ИИ) прочно вошел в жизнь журналистов и правозащитников, помогая им работать с чувствительной информацией.
Руководство к действию по цифровой трансформации НГО
09 September 2024, 12:39 PM
Руководство к действию по цифровой трансформации НГО
Целью данного документа является не только предоставление инструментов для адаптации к новым условиям, но и создание основы для развития цифровых компетенций в рамках гражданского общества.
Human Constanta: Первая в мире попытка законодательного регулирования искусственного интеллекта
09 September 2024, 12:28 PM
Human Constanta: Первая в мире попытка законодательного регулирования искусственного интеллекта
Цифровые эксперт_ки Human Constanta подготовили обзор этого закона.
Access Now: Кого можно назвать цифровыми диктаторами и какие существуют тактики техноавторитаризма
09 September 2024, 12:13 PM
Access Now: Кого можно назвать цифровыми диктаторами и какие существуют тактики техноавторитаризма
Организация Access Now, которая занимается защитой и расширением цифровых прав пользователей по всему миру, рассказывает о самых разных вариациях проявлениях цифрового авторитаризма в разных странах мира.

Атрымаць падтрымку

Мы б хацелі пачуць, як Беларускі Дом правоў чалавека можа падтрымаць вашу арганізацыю.

Аказаць падтрымку

Дому правоў чалавека імя Барыса Звозскава і яго дзейнасці