Microsoft: “Не задавайте Bing слишком много вопросов”

Поисковая система Microsoft тестирует интеграцию ChatGPT для тех, кто записался в список ожидания. Если Microsoft надеется, что новый Bing в конечном итоге отберет глобальный поисковый рынок у Google, потребуется некоторая доработка. В среду компания Microsoft опубликовала блог, в котором рассказала о первых днях работы Bing.

Ребята из Редмонда, штат Вашингтон, отмечают, что тестируемая функция ИИ не является заменой поисковой системы. Компания пишет:

«С тех пор, как мы сделали это доступным в ограниченном предварительном режиме, мы проводили тестирование с избранным набором людей в более чем 169 странах, чтобы получить реальные отзывы. Мы продолжаем учиться, улучшать и делать этот продукт таким, каким он может быть. Это не замена поисковой системы, а скорее инструмент для лучшего понимания и осмысления мира».

71 % новых пользователей Bing довольны ответами чатбота Bing

Но оказалось, что хотя ChatGPT – это разговорный ИИ. Некоторые находят его сродни общению с великим покойным Доном Риклзом. В соцсетях те, кто тестировал новый Bing, сообщают, что новая функция искусственного интеллекта их оскорбила. Другие сообщают, что новая функция искусственного интеллекта манипулирует ими и лжет. Тем не менее эти проблемы, похоже, в меньшинстве. Microsoft отмечает, что 71% пользователей довольны системой.

Microsoft говорит:

«Единственный способ улучшить такой продукт, как этот, заключается в пользовательском опыте. Это когда такие люди, как вы, используют продукт и оставляют отзывы. Мы знаем, что мы должны создавать его в открытом режиме вместе с сообществом. Это не может быть сделано только в лаборатории. Ваши отзывы о том, что вы находите ценным, а что нет, и каковы ваши предпочтения относительно того, как должен вести себя продукт, очень важны на этой начальной стадии разработки».

Некоторые критические в адрес нового Bing связаны с предоставлением своевременных данных. Например, спортивные результаты. Компания также рассматривает возможность создания кнопки переключения, позволяющей пользователям выбирать между получением более точного ответа от чатбота ИИ и получением более творческого ответа.

У некоторых новых пользователей Bing сессии длились до двух часов

Чат-боты ИИ склонны давать ложные ответы, что в мире ИИ известно, как «галлюцинации». Не удивляйтесь, если некоторые ответы будут неправильными. Чтобы получить более полезные, сфокусированные и точные ответы от Bing, Microsoft говорит, что пользователям необходимо ограничить количество вопросов, задаваемых в течение одного продолжительного сеанса, до менее чем 15. В противном случае, по словам компании, «Bing может стать повторяющимся или быть побужденным давать ответы, которые не всегда полезны или соответствуют нашему тону».

Microsoft отмечает, что очень длинные сеансы общения могут запутать чат-бота. В результате он не сможет понять, какие вопросы вы задаете. Гигант программного обеспечения думает над добавлением переключателя, чтобы пользователь мог «обновить контекст» или «начать с нуля».

Кроме того, Microsoft хочет, чтобы те, кто столкнулся с такими ошибками, как неработающие ссылки, неправильное форматирование и медленная загрузка, знали, что эти ошибки были устранены благодаря ежедневным выпускам. Еженедельные выпуски устранят еще больше проблем.

Microsoft заявила:

«Мы хотим поблагодарить тех из вас, кто пробует самые разные варианты использования нового чата и действительно тестирует возможности и границы сервиса. Например, было несколько двухчасовых сеансов чата… Некоторые из вас попросили больше функций и возможностей для нового Bing, например, бронирование авиабилетов или отправка электронной почты. Вы также хотели бы поделиться отличными поисковыми запросами/ответами. Нам нравятся ваши креативные идеи, и мы фиксируем их для возможного включения в будущие релизы».

Компания отмечает, что благодарна за все полученные отзывы. Она стремится к ежедневному совершенствованию и намерена регулярно сообщать об изменениях и прогрессе. Тестирование продолжается, чтобы продукт стал еще лучше.

Добавить комментарий
Нажав на кнопку вы соглашаетесь с правилами обработки персональных данных и политикой конфиденциальности

Ваш адрес email не будет опубликован.

Комментарий добавлен
Авторизуйтесь
Для добавления отзывов, комментариев и участия в голосованиях. Войти на сайт
Последние комментарии Закрыть
Показать ещё