Лаборатория OpenAI расширила доступ к своей языковой модели GPT-3, которая способна автоматически генерировать литературные тексты, отвечать на вопросы и писать программный код. Реализован также ряд защитных механизмов от возможных злоупотреблений.
Стихи и код
Исследовательская лаборатория OpenAI перевела в режим открытого бета-тестирования свою лингвистическую ИИ-модель GPT-3, которая, по утверждению разработчиков, способна автоматически писать письма и новости, сочинять стихи, а также писать код на десятке языков программирования.
Доступ к API, правда, открыт разработчикам из широкого, но ограниченного списка стран, и Россия в него не входит.
GPT-3 и ее деривативы, такие как Codex, можно настраивать для использования в приложениях, требующих глубокого понимания языка. Среди возможных способов применения — генерация программного кода из выражений, написанных на обычном языке, смысловое резюмирование большого объема текста и генерация ответов на вопросы.
GPT-3 стала доступна тестерам в 2020 г. через OpenAI API. Через некоторое время ее использовали уже в трех сотнях разных приложений.
С недавних пор GPT-3 доступна корпоративным пользователям облачной среды Microsoft Azure, на базе которой запущен сервис OpenAI Service. Пользователи получают, помимо доступа к GPT-3 и ее производных, инструменты обеспечения безопасности и другие бизнес-функции.
У Microsoft довольно тесные отношения с OpenAI: корпорация инвестировала в эту лабораторию $1 млрд в 2020 г. и получила эксклюзивную лицензию на использование GPT-3 при разработке ИИ-решений для Azure.
Усовершенствование безопасности
В публикации OpenAI указывается, что перевод GPT-3 в (частично) открытое тестирование стал возможен благодаря «усовершенствованию безопасности». Лаборатория разработала конечные критерии оценки правдивости вопросов-ответов, создала контент-фильтр для пресечения злоупотреблений и реализовала «инструкционные» модели, которые точнее следуют инструкциям, поступающим от людей.
Например, как утверждают в OpenAI, такие модели позволяют GPT-3 выполнять указания вроде «Объясните шестилетнему ребенку, что такое посадка на Луну, в нескольких предложениях».
Конечные критерии вопросов-ответов позволяют разработчикам обеспечивать модели дополнительный контекст для приложений, от которых требуется высокий уровень точности в ответах. Источником контекста служат документация и базы знаний, а фильтр контента создан для того, чтобы избежать генерации машиной ответов, которые могут кого-то задеть или оскорбить.
«Мы уверены, что благодаря открытому доступу к этим моделям через простой в использовании API все большее количество разработчиков найдут новые, уникальные способы применения искусственного интеллекта в полезных приложениях и для решения открытых проблем, — говорится в публикации OpenAI. — Чтобы удостовериться, что приложения, использующие API, созданы с должной ответственностью, мы предоставляем инструментарий и помогаем разработчикам использовать оптимальные методы для быстрого и безопасного развертывания. По мере того, как наши системы развиваются и мы стремимся расширить возможности наших защитных мер, мы также планируем оптимизировать процесс для разработчиков, а заодно улучшить наши рекомендации по использованию, что в дальнейшем обеспечит расширение диапазона практического применения библиотеки».
В OpenAI, однако, признают, что полностью справиться с проблемой токсичности, типичной для крупных языковых моделей, их средства обеспечения безопасности не позволяют.
Модель тренировалась на основе 600 гигабайт текстовой информации из интернета, и часть этих текстов поступила, в том числе, из сообществ, для которых характерны различные предрассудки, в том числе религиозные, расовые и половые. Это накладывает свой отпечаток на данные, составившие основу для обучения модели.
Различные исследования показали, что GPT-3 может быть использована для генерации «радикализирующих» текстов и разного рода дезинформации. В правилах использования API четко прописано, что его нельзя использовать для генерации текстов, относящихся к политике, призывающих к насилию, возбуждающих ненависть, нацеленных на травлю. Также запрещено использовать систему для всего, что связано со спамом, созданием вредоносного ПО и т. д.
В OpenAI разрабатывают «целевые фильтры» для определенных категорий контента. Речь идет, в том числе, о контенте «для взрослых»: по признанию разработчиков GPT-3, система на данный момент не способна отличить приемлемые и неприемлемые формы такого контента.
«Технологии искусственного интеллекта, в том числе лингвистические модели — это обоюдоострый инструмент, сделать его совершенно безопасным, сохраняя эффективность, едва ли возможно, — полагает Дмитрий Кирюхин, эксперт по информационной безопасности компании SEQ. — Можно лишь заблокировать некоторые наиболее очевидные формы возможного злоупотребления, и именно это OpenAI и пытается сделать».
Cnews