Руководства по безопасности обеспечивают необходимый первый уровень защиты данных в условиях золотой лихорадки ИИ

Рамочные основы и принципы помогут снизить потенциальные риски, когда компании будут тестировать генеративный искусственный интеллект.

Рамки безопасности обеспечат необходимый первый уровень защиты данных, особенно в условиях, когда разговоры об искусственном интеллекте (ИИ) становятся все более сложными.

По словам Дениз Вонг, заместителя комиссара Комиссии по защите персональных данных (PDPC), которая контролирует сингапурский Закон о защите персональных данных (PDPA), эти рамки и принципы помогут снизить потенциальные риски и использовать возможности развивающихся технологий, включая генеративный ИИ (Gen AI). Она также является помощником исполнительного директора отраслевого регулятора Infocomm Media Development Authority (IMDA).

Разговоры о внедрении технологий стали более сложными с появлением генеративного ИИ, сказала Вонг во время панельной дискуссии на конференции Personal Data Protection Week 2024, прошедшей в Сингапуре на этой неделе. Организациям необходимо выяснить, в частности, что влечет за собой эта технология, что она означает для их бизнеса и какие ограждения необходимы.

По ее словам, предоставление базовых основ может помочь минимизировать последствия. Наборы инструментов могут стать отправной точкой для экспериментов и тестирования приложений генеративного ИИ, в том числе наборы инструментов с открытым исходным кодом, которые бесплатны и доступны на GitHub. Она добавила, что правительство Сингапура будет продолжать сотрудничать с партнерами по отрасли, чтобы предоставить такие инструменты.

По словам Вонг, это сотрудничество также будет способствовать проведению экспериментов с генеративным ИИ, чтобы страна могла понять, что такое безопасность ИИ. Усилия в этом направлении включают тестирование и повторное тестирование больших языковых моделей (LLM) с учетом местных и региональных условий, таких как язык и культура.

По ее словам, результаты этих партнерств будут полезны для организаций и регулирующих органов, таких как PDPC и IMDA, чтобы понять, как работают различные LLM и какова эффективность мер безопасности.

В течение прошлого года Сингапур заключил соглашения с IBM и Google о тестировании, оценке и доработке сингапурского ИИ LLM для Юго-Восточной Азии, получившего название SEA-LION. Цель инициатив - помочь разработчикам создавать специализированные приложения ИИ на базе SEA-LION и улучшить понимание культурного контекста в LLM, созданных для этого региона.

С ростом числа LLM по всему миру, включая основные модели OpenAI и модели с открытым исходным кодом, организации могут столкнуться с проблемой понимания различных платформ. Каждый LLM поставляется с парадигмами и способами доступа к модели ИИ, сказал Джейсон Тамара Виджая, исполнительный директор по ИИ Сингапурского технологического центра фармацевтической компании MSD, выступавший на той же панели.

По его словам, компании должны понимать, как работают эти предварительно обученные модели ИИ, чтобы выявить потенциальные риски, связанные с данными. Ситуация усложняется, когда организации добавляют свои данные в LLM и работают над точной настройкой обучаемых моделей. Использование таких технологий, как расширенный поиск (retrieval augmented generation, RAG), еще больше подчеркивает необходимость для компаний обеспечить подачу правильных данных в модель и контроль доступа к данным на основе ролей, добавил он.

В то же время, по его словам, компании также должны оценивать меры по фильтрации контента, с которым могут работать модели ИИ, поскольку это может повлиять на получаемые результаты. Например, данные, связанные с женским здоровьем, могут быть заблокированы, даже если эта информация предоставляет важные базовые знания для медицинских исследований.

По словам Виджая, управление этими вопросами требует тонкого баланса и является сложной задачей. Исследование, проведенное компанией F5, показало, что 72 % организаций, внедряющих ИИ, назвали проблемы качества данных и неспособность расширить практику работы с данными в качестве ключевых проблем для масштабирования своих внедрений ИИ.

Около 77 % организаций заявили, что у них нет единого источника истины для своих наборов данных, говорится в отчете, в котором проанализированы данные более 700 руководителей ИТ-отделов по всему миру. Лишь 24 % организаций заявили о масштабном внедрении ИИ, а еще 53 % указали на отсутствие навыков работы с ИИ и данными в качестве основного препятствия.

Сингапур стремится решить некоторые из этих проблем с помощью новых инициатив по управлению ИИ и созданию данных.

«Предприятиям по-прежнему будут нужны данные для развертывания приложений поверх существующих LLM», - заявила министр цифрового развития и информации Жозефина Тео, выступая на открытии конференции. «Модели должны быть точно настроены, чтобы лучше работать и давать более качественные результаты для конкретных приложений. Для этого необходимы качественные наборы данных».

И хотя можно использовать такие методы, как RAG, эти подходы работают только с дополнительными источниками данных, которые не использовались для обучения базовой модели, сказала Тео. Хорошие наборы данных также необходимы для оценки и сравнения производительности моделей, добавила она.

«Однако качественные наборы данных могут быть недоступны для всех разработок ИИ. Даже если бы они были доступны, существуют риски, [при которых] наборы данных могут быть нерепрезентативными, [при которых] модели, построенные на их основе, могут давать необъективные результаты», - сказала она. Кроме того, по словам Тео, наборы данных могут содержать личную информацию, что потенциально может привести к тому, что генеративные модели ИИ будут выдавать такую информацию по запросу.

Наклеивание ярлыка безопасности на ИИ

Тео заявил, что Сингапур выпустит руководство по безопасности для генеративных моделей ИИ и разработчиков приложений, чтобы решить эти проблемы. Эти рекомендации будут опубликованы в рамках программы AI Verify, которая призвана предложить базовые, общие стандарты посредством прозрачности и тестирования.

«Наши руководящие принципы будут рекомендовать разработчикам и разработчикам приложений быть прозрачными для пользователей, предоставляя информацию о том, как работают модели и приложения генного ИИ, такие как используемые данные, результаты тестирования и оценки, а также остаточные риски и ограничения, которые может иметь модель или приложение», - пояснила она.

По ее словам, в руководстве также будут указаны атрибуты безопасности и надежности, которые должны быть проверены перед развертыванием моделей или приложений ИИ, и рассмотрены такие вопросы, как галлюцинации, токсичные высказывания и предвзятое содержание. «Это похоже на то, как мы покупаем бытовую технику. На этикетке будет написано, что она прошла тестирование, но что должно быть проверено, чтобы разработчик продукта заслужил эту этикетку?»

PDPC также выпустила предлагаемое руководство по созданию синтетических данных, включая поддержку технологий повышения конфиденциальности, или PET, для решения проблем, связанных с использованием конфиденциальных и личных данных в генеративном ИИ.

Отметив, что генерирование синтетических данных становится одним из видов PET, Тео сказал, что предлагаемое руководство должно помочь предприятиям «понять смысл синтетических данных», в том числе то, как они могут быть использованы.

«Удаляя или защищая персональную информацию, ПЭТ могут помочь предприятиям оптимизировать использование данных без ущерба для персональных данных», - отметила она.

«PET устраняют многие ограничения при работе с конфиденциальными персональными данными и открывают новые возможности, делая доступ к данным, обмен ими и коллективный анализ более безопасными».

Руководства по безопасности обеспечивают необходимый первый уровень защиты данных в условиях золотой лихорадки ИИ
Понравилась новость? Тогда не забудь оставить свой комментарий.
А так же, добавь наш сайт в закладки (нажми Ctrl+D), не теряй нас.
17 июля 2024 г.
41

Комментарии

Оставить комментарий:
* отправляя форму, я даю согласие на обработку персональных данных

Читайте еще

Генеративный искусственный интеллект не поможет решить проблему миграции в облаках

Вы наверняка слышали о том, что генеративный искусственный интеллект решит все проблемы с миграцией в облако. На самом деле все не так просто. Генеративный ИИ может усложнить задачу и сделать ее более дорогостоящей.

14 июля 2024 г.
50

Amazon объявляет о постепенном совершенствовании искусственного интеллекта, чтобы противостоять конкурентам

Среди ключевых обновлений - расширенная память для автоматизации задач агентами ИИ, улучшенные предложения кода в чатботе Q и улучшенное обнаружение галлюцинаций в сервисе Bedrock.

11 июля 2024 г.
38

Глава Samsung намекнул, что обновленный Bixby будет запущен позже в этом году

Samsung подтверждает, что обновление Bixby с поддержкой искусственного интеллекта появится в конце этого года, присоединяясь к тенденции, когда производители смартфонов включают функции генеративного искусственного интеллекта в свои персональные ассистенты.

11 июля 2024 г.
47

Продолжаем добавлять языки программирования для Вас.
Впереди много интересного!

Только свежие новости программирования и технологий каждый день.

Свежие посты