NIST запускает новую платформу для оценки генеративного искусственного интеллекта

Национальный институт стандартов и технологий (NIST), агентство Министерства торговли США, разрабатывающее и тестирующее технологии для правительства США, компаний и более широкой публики, в понедельник объявил о запуске программы NIST GenAI, новой программы, инициированной NIST для оценки генеративных технологий искусственного интеллекта, включая текстовый и генерированный искусственным интеллектом изображения.

NIST GenAI будет выпускать стандарты, помогать создавать системы обнаружения «аутентичности контента» (такие как проверка deepfake) и поощрять развитие программного обеспечения для выявления источника фальшивой или вводящей в заблуждение информации, созданной искусственным интеллектом, разъясняет NIST на только что запущенном веб-сайте NIST GenAI и в пресс-релизе.

«Программа NIST GenAI будет проводить серию вызывающих задач с целью оценки и измерения возможностей и ограничений генеративных технологий искусственного интеллекта», - сообщается в пресс-релизе. «Эти оценки будут использованы для выявления стратегий по содействию целостности информации и руководства безопасным и ответственным использованием цифрового контента».

Первым проектом NIST GenAI является пилотное исследование по созданию систем, способных надежно различать медиа, созданное человеком искусственным интеллектом, начиная с текста. (Хотя многие службы утверждают, что они могут обнаружить deepfake, исследования и наши собственные испытания показали, что они являются крайне неустойчивыми, особенно когда речь идет о тексте) NIST GenAI приглашает команды из академии, индустрии и исследовательских лабораторий представить либо «генераторы» - системы искусственного интеллекта для генерации контента, либо «дискриминаторы», которые представляют собой системы, разработанные для идентификации контента, созданного искусственным интеллектом.

Генераторы в рамках исследования должны создавать сводки из 250 слов или менее, на основе предоставленной темы и набора документов, в то время как дискриминаторы должны определять, является ли данная сводка потенциально созданной искусственным интеллектом. Для обеспечения справедливости NIST GenAI предоставит данные, необходимые для проверки генераторов. Системы, обученные на общедоступных данных и не соответствующие применимым законам и правилам, не будут приняты, - говорит NIST.

Регистрация на пилотное исследование начнется 1 мая, а первый раунд закроется 2 августа. Окончательные результаты исследования ожидаются в феврале 2025 года.

Запуск NIST GenAI и исследование, сосредоточенное на deepfake, приходятся на период экспоненциального роста объема манипулированной искусственным интеллектом дезинформации и недостоверной информации.

Согласно данным Clarity, компании по обнаружению deepfake, количество созданных и опубликованных deepfake в этом году увеличилось на 900% по сравнению с таким же периодом прошлого года. Это вызывает понятную тревогу. Опрос от YouGov показал, что 85% американцев обеспокоены распространением в интернете вводящих в заблуждение deepfake.

Запуск NIST GenAI является частью ответа NIST на указ президента Джо Байдена о искусственном интеллекте, который устанавливает правила, требующие от компаний по искусственному интеллекту большей прозрачности в отношении того, как работают их модели, и устанавливает ряд новых стандартов, включая оговорку о маркировке контента, созданного искусственным интеллектом.

Это также первое объявление NIST в области искусственного интеллекта после назначения Пола Кристиано, бывшего исследователя OpenAI, в AI Safety Institute агентства.

Кристиано вызвал спорные мнения своими «глубининейшими» взглядами; он однажды предсказал, что «есть 50% шансов, что развитие искусственного интеллекта может закончиться разрушением [человечества]». Критики, по сообщениям в том числе ученых из NIST, опасаются, что Кристиано может побудить AI Safety Institute сосредоточиться на «фантастических сценариях» вместо реалистичных, более актуальных рисков от искусственного интеллекта.

NIST утверждает, что NIST GenAI будет информировать работу AI Safety Institute.