В поисках надежного водяного знака ИИ

Проблема заключается в том, что цифровая водяная маркировка результатов ИИ становится все более сложной по мере совершенствования ИИ-контента.

Мы уже наводнены ими - "глубоко поддельные" фотографии, которые практически неотличимы от настоящих (за исключением лишних пальцев), сгенерированные ИИ статьи и курсовые работы, которые звучат реалистично (хотя все равно выглядят неуклюже), сгенерированные ИИ отзывы и многое другое. Кроме того, системы искусственного интеллекта могут использовать в качестве обучающих данных материалы, защищенные авторским правом, или интеллектуальную собственность с веб-сайтов, подвергая пользователей потенциальным нарушениям.

Проблема, конечно, в том, что контент ИИ становится все лучше. Будет ли когда-нибудь найден надежный способ идентификации материалов, созданных ИИ? И что должны понимать создатели ИИ и их компании о появляющихся технологиях?

"Изначально генеративный ИИ использовался в развлекательных и образовательных целях, но теперь мы видим, что многие злоумышленники используют ИИ в злонамеренных целях", - сказал ZDNET Энди Турай, вице-президент и главный аналитик компании Constellation Research.

Медиаконтент - изображения, видео, аудиофайлы - особенно подвержен "неправильному цитированию, плагиату, краже или отсутствию цитирования вообще", - добавил Тураи. Это означает, что "создатели не получат должного кредита или дохода". Дополнительной опасностью, по его словам, является "распространение дезинформации, которая может повлиять на принятие решений".

С точки зрения текста, ключевая проблема заключается в том, что многочисленные подсказки и итерации в отношении языковых моделей, как правило, стирают водяные знаки или предоставляют лишь минимальную информацию, говорится в недавней работе исследователей из Чикагского университета под руководством Алони Коэна, доцента этого университета. Они призывают к новому подходу - многопользовательским водяным знакам, "которые позволяют отследить текст, сгенерированный моделью, до отдельных пользователей или групп сговорившихся пользователей, даже в условиях адаптивных подсказок".

Проблема как для текста, так и для медиа заключается в том, что для цифрового водяного знака языковых моделей и результатов работы ИИ необходимо внедрить обнаруживаемые сигналы, которые невозможно изменить или удалить.

В отрасли реализуются инициативы по разработке надежных водяных знаков для ИИ. Например, Коалиция по проверке достоверности и подлинности контента (C2PA) - совместная инициатива, сформированная альянсом Adobe, Arm, Intel, Microsoft и Truepic, - разрабатывает открытый технический стандарт, призванный предоставить издателям, создателям и потребителям "возможность отслеживать происхождение различных типов медиа".

C2PA объединяет усилия инициативы Adobe Content Authenticity Initiative (CAI), направленной на создание систем, обеспечивающих контекст и историю цифровых медиа, и Project Origin, инициативы Microsoft и BBC, направленной на борьбу с дезинформацией в экосистеме цифровых новостей.

"Без стандартизированного доступа к инструментам обнаружения проверка того, является ли контент созданным ИИ, становится дорогостоящим, неэффективным и специальным процессом", - утверждает Алессандра Сала из Shutterstock в отчете, опубликованном Международным союзом электросвязи (МСЭ) - агентством ООН по цифровым технологиям. "По сути, это означает, что вы пробуете все доступные инструменты обнаружения ИИ по очереди и все еще не уверены, что тот или иной контент создан ИИ".

Распространение платформ генеративного ИИ "требует создания публичного реестра моделей с водяными знаками, а также универсальных инструментов обнаружения", - считает Сала. "До тех пор этичные пользователи ИИ должны запрашивать службу водяных знаков каждой компании в отдельности, чтобы проверить, есть ли водяные знаки на том или ином контенте".

Инициатива C2PA способствует "широкому распространению учетных данных контента, метаданных, которые можно прикрепить к цифровому контенту", - пояснил Турай. Он приравнивает учетные данные контента к "этикетке питания", которую создатели могут прикреплять к своему цифровому контенту и которая может использоваться для отслеживания происхождения контента". Благодаря этому открытому стандарту издатели, создатели и потребители смогут "отслеживать происхождение и эволюцию медиафайлов, включая изображения, видео, аудио и документы", - добавил он.

По словам Турая, создатели контента могут "получить признание своей работы в Интернете, прикрепив такую информацию, как свое имя или аккаунты в социальных сетях, непосредственно к созданному ими контенту". Для этого нужно просто нажать на булавку, прикрепленную к контенту, или перейти на веб-сайт для проверки происхождения. Такие инструменты "подтверждают соответствующую информацию, а также предоставляют подробную историю изменений с течением времени".

В поисках надежного водяного знака ИИ
Понравилась новость? Тогда не забудь оставить свой комментарий.
А так же, добавь наш сайт в закладки (нажми Ctrl+D), не теряй нас.
13 августа 2024 г.
35

Комментарии

Оставить комментарий:
* отправляя форму, я даю согласие на обработку персональных данных

Читайте еще

ИИ FRVR, позволяющий каждому создавать свои собственные игры

Видеоигры стали ведущим средством цифровых развлечений. Несмотря на огромное количество игр, доступных практически на каждом устройстве, многие геймеры стремятся создавать собственные игры, демонстрирующие их уникальные предпочтения и новаторские идеи.

06 августа 2024 г.
92