искусственный интеллект

AI21 Labs решает вопрос галлюцинаций для чат-ботов GPT

Contextual Answers предназначен для предприятий, но может иметь далеко идущие последствия для сектора искусственного интеллекта.

AI21 Labs недавно запустила “Контекстуальные ответы”, механизм ответов на вопросы для больших языковых моделей (LLM). При подключении к LLM новый движок позволяет пользователям загружать свои собственные библиотеки данных, чтобы ограничить выходные данные модели конкретной информацией.

Запуск ChatGPT и аналогичных продуктов искусственного интеллекта (ИИ) изменил парадигму индустрии ИИ, но отсутствие надежности делает внедрение сложной перспективой для многих предприятий.

Согласно исследованиям, сотрудники тратят почти половину своего рабочего дня на поиск информации. Это открывает огромные возможности для чат-ботов, способных выполнять функции поиска; однако большинство чат-ботов не ориентированы на предприятия.

AI21 разработала контекстуальные ответы, чтобы устранить разрыв между чат-ботами, предназначенными для общего использования, и службами ответов на вопросы корпоративного уровня, предоставляя пользователям возможность создавать собственные библиотеки данных и документов.

Согласно сообщению в блоге AI21, контекстуальные ответы позволяют пользователям управлять ответами ИИ без переподготовки моделей, тем самым устраняя некоторые из самых больших препятствий для внедрения:

Большинство компаний с трудом внедряют ИИ, ссылаясь на стоимость, сложность и отсутствие специализации моделей в своих организационных данных, что приводит к неправильным ответам, «галлюцинациям» или несоответствующим контексту.

Одна из нерешенных задач, связанных с разработкой полезных LLM, таких как ChatGPT от OpenAI или Bard от Google, заключается в том, чтобы научить их выражать недостаток уверенности. Обычно, когда пользователь запрашивает чат-бота, он выдает ответ, даже если в его наборе данных недостаточно фактической информации.

В этих случаях, вместо того чтобы выдавать ответ с низкой степенью достоверности, такой как “Я не знаю”, LLM часто выдают информацию без какой-либо фактической основы. Исследователи называют эти выходные данные “галлюцинациями”, потому что машины генерируют информацию, которой, казалось бы, не существует в их наборах данных, подобно людям, которые видят то, чего на самом деле нет.

Мы рады представить Contextual Answers — API-решение, в котором ответы основаны на организационных знаниях, не оставляя места галлюцинациям искусственного интеллекта.

Согласно A121, контекстуальные ответы должны полностью решить проблему галлюцинаций, либо выдавая информацию только тогда, когда она имеет отношение к предоставленной пользователем документации, либо вообще ничего не выдавая.

В секторах, где точность важнее автоматизации, таких как финансы и юриспруденция, внедрение систем генеративного предварительно обученного трансформатора (GPT) дало разные результаты.

Эксперты по-прежнему рекомендуют соблюдать осторожность в финансовой сфере при использовании GPT-систем из-за их склонности к «галлюцинациям» или смешиванию информации, даже при подключении к Интернету и возможности ссылки на источники.

А в юридическом секторе адвокату теперь грозят штрафы и санкции за то, что он полагался на результаты, сгенерированные ChatGPT во время рассмотрения дела. Загрузив системы искусственного интеллекта релевантными данными и вмешавшись до того, как система сможет выдавать неправдоподобную информацию, AI21, похоже, продемонстрировала решение проблемы «галлюцинаций».

Это может привести к массовому внедрению, особенно на финтех-арене, где традиционные финансовые учреждения неохотно принимают технологию GPT, а сообщества криптовалют и блокчейнов в лучшем случае имеют смешанный успех при использовании чат-ботов.

Ответить

Ваш адрес email не будет опубликован. Обязательные поля помечены *