Проблема заключается в том, что цифровая водяная маркировка результатов ИИ становится все более сложной по мере совершенствования ИИ-контента.
Мы уже наводнены ими - "глубоко поддельные" фотографии, которые практически неотличимы от настоящих (за исключением лишних пальцев), сгенерированные ИИ статьи и курсовые работы, которые звучат реалистично (хотя все равно выглядят неуклюже), сгенерированные ИИ отзывы и многое другое. Кроме того, системы искусственного интеллекта могут использовать в качестве обучающих данных материалы, защищенные авторским правом, или интеллектуальную собственность с веб-сайтов, подвергая пользователей потенциальным нарушениям.
Проблема, конечно, в том, что контент ИИ становится все лучше. Будет ли когда-нибудь найден надежный способ идентификации материалов, созданных ИИ? И что должны понимать создатели ИИ и их компании о появляющихся технологиях?
"Изначально генеративный ИИ использовался в развлекательных и образовательных целях, но теперь мы видим, что многие злоумышленники используют ИИ в злонамеренных целях", - сказал ZDNET Энди Турай, вице-президент и главный аналитик компании Constellation Research.
Медиаконтент - изображения, видео, аудиофайлы - особенно подвержен "неправильному цитированию, плагиату, краже или отсутствию цитирования вообще", - добавил Тураи. Это означает, что "создатели не получат должного кредита или дохода". Дополнительной опасностью, по его словам, является "распространение дезинформации, которая может повлиять на принятие решений".
С точки зрения текста, ключевая проблема заключается в том, что многочисленные подсказки и итерации в отношении языковых моделей, как правило, стирают водяные знаки или предоставляют лишь минимальную информацию, говорится в недавней работе исследователей из Чикагского университета под руководством Алони Коэна, доцента этого университета. Они призывают к новому подходу - многопользовательским водяным знакам, "которые позволяют отследить текст, сгенерированный моделью, до отдельных пользователей или групп сговорившихся пользователей, даже в условиях адаптивных подсказок".
Проблема как для текста, так и для медиа заключается в том, что для цифрового водяного знака языковых моделей и результатов работы ИИ необходимо внедрить обнаруживаемые сигналы, которые невозможно изменить или удалить.
В отрасли реализуются инициативы по разработке надежных водяных знаков для ИИ. Например, Коалиция по проверке достоверности и подлинности контента (C2PA) - совместная инициатива, сформированная альянсом Adobe, Arm, Intel, Microsoft и Truepic, - разрабатывает открытый технический стандарт, призванный предоставить издателям, создателям и потребителям "возможность отслеживать происхождение различных типов медиа".
C2PA объединяет усилия инициативы Adobe Content Authenticity Initiative (CAI), направленной на создание систем, обеспечивающих контекст и историю цифровых медиа, и Project Origin, инициативы Microsoft и BBC, направленной на борьбу с дезинформацией в экосистеме цифровых новостей.
"Без стандартизированного доступа к инструментам обнаружения проверка того, является ли контент созданным ИИ, становится дорогостоящим, неэффективным и специальным процессом", - утверждает Алессандра Сала из Shutterstock в отчете, опубликованном Международным союзом электросвязи (МСЭ) - агентством ООН по цифровым технологиям. "По сути, это означает, что вы пробуете все доступные инструменты обнаружения ИИ по очереди и все еще не уверены, что тот или иной контент создан ИИ".
Распространение платформ генеративного ИИ "требует создания публичного реестра моделей с водяными знаками, а также универсальных инструментов обнаружения", - считает Сала. "До тех пор этичные пользователи ИИ должны запрашивать службу водяных знаков каждой компании в отдельности, чтобы проверить, есть ли водяные знаки на том или ином контенте".
Инициатива C2PA способствует "широкому распространению учетных данных контента, метаданных, которые можно прикрепить к цифровому контенту", - пояснил Турай. Он приравнивает учетные данные контента к "этикетке питания", которую создатели могут прикреплять к своему цифровому контенту и которая может использоваться для отслеживания происхождения контента". Благодаря этому открытому стандарту издатели, создатели и потребители смогут "отслеживать происхождение и эволюцию медиафайлов, включая изображения, видео, аудио и документы", - добавил он.
По словам Турая, создатели контента могут "получить признание своей работы в Интернете, прикрепив такую информацию, как свое имя или аккаунты в социальных сетях, непосредственно к созданному ими контенту". Для этого нужно просто нажать на булавку, прикрепленную к контенту, или перейти на веб-сайт для проверки происхождения. Такие инструменты "подтверждают соответствующую информацию, а также предоставляют подробную историю изменений с течением времени".
Понравилась новость? Тогда не забудь оставить свой комментарий.
А так же, добавь наш сайт в закладки (нажми Ctrl+D), не теряй нас.
Комментарии