Экспериментальный чат-бот Google доступен для тестирования
В последние дни компания решила открыть свое мобильное приложение AI Test Kitchen, тем самым предоставив пользователям возможность протестировать его и проверить, как разработанное ею программное обеспечение LaMDA работает с использованием искусственного интеллекта.
Компания Google три месяца назад представила чат-бота AI Test Kitchen, а вместе с ним и еще одну версию программы для разговоров LaMDA, которую можно научить читать не только отдельные слова, произнесенные человеком, но даже целые предложения или абзацы. По мнению Google, качество таких инструментов, как LaMDA, определяет, как будет выглядеть взаимодействие человека с компьютером в будущем.
AI Test Kitchen является частью более широкого плана Google, согласно которому компания хочет создать интерфейсы следующего поколения, которые позволят людям общаться с компьютером, используя естественный язык. Компания уже запустила веб-сайт, где люди, заинтересованные в тестировании приложения, могут заявить о своей готовности протестировать приложение AI Test Kitchen.
В настоящее время эта возможность доступна только американским разработчикам, но со временем этой возможностью смогут воспользоваться и разработчики, живущие в других странах мира. Речь идет о приложении, предназначенном для устройств Android. Google заявляет, что версия для iOS должна быть доступна в ближайшие недели.
Как и в случае с недавно вышедшим интеллектуальным чат-ботом под названием BlenderBot 3, и на этот раз Google предупреждает, что искусственный интеллект, управляющий приложением LaMDA, может преподносить сюрпризы из-за того, что он далек от совершенства и иногда может выдавать неожиданные суждения. Google говорит, что оснастил LaMDA тем, что он называет «ключевыми улучшениями безопасности», чтобы избежать неточных или даже оскорбительных ответов.
Программное обеспечение LaMDA основано на языковой модели, которая имитирует диалог между компьютером и человеком, имея в своем распоряжении более 175 миллиардов параметров. Несмотря на такое большое количество параметров, модель иногда может неправильно интерпретировать намерения, стоящие за заявлениями обеих сторон.
В результате это также может вызвать вредные или даже токсичные реакции, которые представляют людей в ложном свете, например, из-за их пола или культурного происхождения. Поэтому эти и другие направления работы таких ботов, как LaMDA, до сих пор являются предметом активных исследований, что дает надежду на то, что в будущем подобных ситуаций не возникнет.
Предыдущая статья
LG представила гибкий дисплей LX3, который можно изогнуть по мере необходимости
Следующая статья
Как выбрать встраиваемую бытовую технику?
Комментарии
Минимальная длина комментария - 50 знаков. комментарии модерируются