Британский орган власти призывает обеспечить комплексную защиту данных в искусственном интеллекте на фоне участившихся нарушений

Управление комиссара по информации (ICO), британский орган, отвечающий за надзор за использованием и сбором персональных данных, сообщило, что в 2023 году оно получит сообщения о более чем 3 000 киберугроз.

Эта цифра подчеркивает насущную проблему в мире технологий: необходимость принятия жестких мер по защите данных, особенно в условиях развития технологий искусственного интеллекта. Британский орган по контролю за соблюдением прав человека выпустил предупреждение для технологических компаний, требуя, чтобы защита данных была "заложена" на всех этапах разработки ИИ, чтобы обеспечить максимальный уровень конфиденциальности личной информации людей.

По мнению надзорного органа, процессы ИИ, использующие персональные данные, должны соответствовать современным стандартам защиты данных и прозрачности. Это включает в себя использование персональных данных на различных этапах, таких как обучение, тестирование и развертывание систем ИИ. Джон Эдвардс, комиссар по информации Великобритании, в ближайшее время выступит перед лидерами технологического сектора с речью о необходимости защиты данных.

"Как лидеры в своей области, я хочу дать понять, что вы должны думать о защите данных на каждом этапе разработки, и вы должны убедиться, что ваши разработчики тоже думают об этом", - подчеркнет он в своем предстоящем выступлении, посвященном конфиденциальности, ИИ и развивающимся технологиям.

Сачин Агравал, директор Zoho UK, согласился с тем, что, поскольку ИИ революционизирует бизнес-операции, защита данных должна быть встроена в проект. Агравал обратил внимание на исследование Zoho Digital Health Study, которое показало, что 36 % опрошенных британских компаний считают конфиденциальность данных жизненно важной для своего успеха. Тем не менее, тревожный вывод заключается в том, что только 42 % этих компаний полностью соблюдают все применимое законодательство и отраслевые стандарты. Такое несоответствие подчеркивает крайнюю необходимость в расширенном образовании, чтобы компании могли улучшить управление безопасностью данных клиентов во всех элементах использования данных, а не только в искусственном интеллекте.

Он также раскритиковал распространенную в индустрии практику использования данных клиентов, назвав ее неэтичной. Он выступает за более принципиальный подход, при котором компании признают право собственности на данные клиентов. "Мы считаем, что клиент владеет своими данными, а не мы, и использовать их только для улучшения качества поставляемых нами продуктов - это правильно, - заявил он. Такой подход не только обеспечивает соблюдение закона, но и способствует укреплению доверия и углублению отношений с клиентами".

По мере распространения технологий искусственного интеллекта спрос на этичные методы работы с данными будет расти. Компании, которые не ставят во главу угла интересы своих клиентов в политике работы с данными, рискуют потерять клиентов в пользу более этичных альтернатив.

Важность GDPR и безопасности данных

Учитывая эти проблемы, очевидно, что существующие законодательные рамки, такие как GDPR, должны развиваться, чтобы идти в ногу с технологическим прогрессом.

GDPR был введен шесть лет назад для стандартизации европейской системы защиты конфиденциальности и данных. В связи с растущим интересом к искусственному интеллекту он рассматривается как важнейшая линия защиты от неопределенностей, порождаемых новыми технологиями, бизнес-моделями и методами обработки данных.

Однако проблемы конфиденциальности данных стали еще более сложными с ростом числа приложений генеративного ИИ. Такие компании, как OpenAI, подвергаются критике за непрозрачность методов сбора обучающих данных и за то, как они решают вопросы конфиденциальности в своих моделях ИИ.

Например, регулирующие органы в Италии сначала приостановили запуск ChatGPT от OpenAI из-за опасений по поводу конфиденциальности. Однако через несколько недель они разрешили его работу, но в начале 2024 года появились сообщения о нарушении конфиденциальности. Проблемы конфиденциальности возникают не только у крупных поставщиков ИИ; предприятия постепенно внедряют новые LLM в свои собственные процессы и данные, что создает уникальные проблемы.

Решение этих проблем имеет решающее значение не только для соблюдения нормативных требований, но и для повышения доверия к технологиям ИИ. Баланс между быстрыми технологическими инновациями и системой защиты основных прав может создать надежную и уверенную среду для технологий ИИ.

Британский орган власти призывает обеспечить комплексную защиту данных в искусственном интеллекте на фоне участившихся нарушений
Понравилась новость? Тогда не забудь оставить свой комментарий.
А так же, добавь наш сайт в закладки (нажми Ctrl+D), не теряй нас.
26 мая 2024 г.
56

Комментарии

Оставить комментарий:
* отправляя форму, я даю согласие на обработку персональных данных

Читайте еще

Продолжаем добавлять языки программирования для Вас.
Впереди много интересного!

Только свежие новости программирования и технологий каждый день.

Свежие посты