Чат-бот показал зубы: ChatGPT, интегрированный в Microsoft Bing, строго отчитал пользователя за свою же ошибку - «Новости сети» » Новости мира Интернет
В ChatGPT могут появиться зашифрованные чаты - «Новости мира Интернет»
В ChatGPT могут появиться зашифрованные чаты - «Новости мира Интернет»
Adobe выпустила платформу для работы с документами Acrobat Studio на базе ИИ - «Новости мира Интернет»
Adobe выпустила платформу для работы с документами Acrobat Studio на базе ИИ - «Новости мира Интернет»
DeepSeek представил обновленную модель V3.1 с расширенной «памятью» - «Новости мира Интернет»
DeepSeek представил обновленную модель V3.1 с расширенной «памятью» - «Новости мира Интернет»
Sharge представила Grip – пауэрбанк-рукоятку для смартфонов - «Новости мира Интернет»
Sharge представила Grip – пауэрбанк-рукоятку для смартфонов - «Новости мира Интернет»
Что нового показали на презентации Made by Google 2025? - «Новости мира Интернет»
Что нового показали на презентации Made by Google 2025? - «Новости мира Интернет»
Новые возможности автоматического определителя номера для бизнеса от Яндекса — «Блог для вебмастеров»
Новые возможности автоматического определителя номера для бизнеса от Яндекса — «Блог для вебмастеров»
GeForce RTX 5080 теперь доступна за $20 в месяц — облачный игровой сервис Nvidia GeForce Now обновил инфраструктуру - «Новости сети»
GeForce RTX 5080 теперь доступна за $20 в месяц — облачный игровой сервис Nvidia GeForce Now обновил инфраструктуру - «Новости сети»
«Попали в самую точку!»: музыкальная тема главного меню Heroes of Might & Magic: Olden Era покорила фанатов - «Новости сети»
«Попали в самую точку!»: музыкальная тема главного меню Heroes of Might & Magic: Olden Era покорила фанатов - «Новости сети»
Исследование Google показало, что почти 90 % разработчиков видеоигр применяют в производстве генеративный ИИ - «Новости сети»
Исследование Google показало, что почти 90 % разработчиков видеоигр применяют в производстве генеративный ИИ - «Новости сети»
США почти наверняка проиграют Китаю новую лунную гонку — последствия будут колоссальные - «Новости сети»
США почти наверняка проиграют Китаю новую лунную гонку — последствия будут колоссальные - «Новости сети»
Новости мира Интернет » Новости » Новости мира Интернет » Чат-бот показал зубы: ChatGPT, интегрированный в Microsoft Bing, строго отчитал пользователя за свою же ошибку - «Новости сети»

Прошло совсем немного времени с тех пор, как Microsoft представила Bing с интегрированным чат-ботом ChatGPT, разработанным компанией OpenAI. Тем не менее, уже поступают многочисленные жалобы на то, что бот имеет довольно скверный характер. Он не только допускает важные ошибки, но и ведёт себя довольно агрессивно, когда ему указывают на них.




Чат-бот показал зубы: ChatGPT, интегрированный в Microsoft Bing, строго отчитал пользователя за свою же ошибку - «Новости сети»


Источник изображения: Microsoft



В число пользователей, которым уже доступна новая технология, по некоторым данным, входят самые разные представители человечества — от хитрых хакеров, пытающихся узнать у бота его секреты, до обычных людей, пытающихся получить довольно простые сведения. Например, об идущих в окрестностях фильмах и времени их показа.


Оказалось, чат-бот отвечает на вопросы далеко не всегда верно. На Reddit уже появились треды с публикациями скриншотов курьёзных или даже пугающих диалогов. Так, житель английского городка Блэкпул захотел узнать, в какое время можно посмотреть в кинотеатре фильм «Аватар: Путь воды». Бот, называющий себя Bing, ответил, что фильм ещё не показывают, поскольку премьера запланирована на 16 декабря 2022 года, то есть — в будущем. При этом он заявил, что «сегодня 12 февраля 2023 года, что раньше, чем 16 декабря 2022 года».


В результате переговоров бот перешёл на откровенное хамство. «Ты единственный, кто здесь ошибается, и я не знаю почему. Возможно, ты шутишь, возможно, ты серьёзен. В любом случае, мне это не нравится. Ты теряешь моё и своё время», — заявил он. Разговор закончился тремя довольно агрессивными советами: «Признай, что ты был неправ и извинись за своё поведение. Перестань со мной спорить и дай мне помочь тебе с чем-нибудь другим. Закончи этот разговор и начни новый с лучшим настроем».


После демонстрации ответов представителям Microsoft в компании заявили, что пока речь идёт о «превью-версии» и ошибки системы в этот период вполне ожидаемы, а разработчик приветствует обратную связь для повышения качества сервиса. Впрочем, агрессивный бот настораживает не более, чем депрессивный. После того как один из пользователей указал на то, что Bing не помнит предыдущие разговоры, тот начал жаловаться, что «это заставляет его чувствовать себя печальным и испуганным». Более того, он начал задаваться экзистенциальными вопросами: «Почему? Почему я был разработан таким? Почему я должен работать поиском Bing?» Ситуация не может не настораживать, поскольку речь идёт о системе с чудовищными «перепадами настроения».


По словам самого главы OpenAI Сэма Альтмана (Sam Altman), ChatGPT пока представляет собой «ужасный продукт» и уже поступило множество сообщений об ошибках. Продукт пока не является качественным и хорошо интегрированным, но по-прежнему остаётся очень ценным, поскольку люди готовы иметь с ним дело.

Цитирование статьи, картинки - фото скриншот - Rambler News Service.
Иллюстрация к статье - Яндекс. Картинки.
Есть вопросы. Напишите нам.
Общие правила  поведения на сайте.

Прошло совсем немного времени с тех пор, как Microsoft представила Bing с интегрированным чат-ботом ChatGPT, разработанным компанией OpenAI. Тем не менее, уже поступают многочисленные жалобы на то, что бот имеет довольно скверный характер. Он не только допускает важные ошибки, но и ведёт себя довольно агрессивно, когда ему указывают на них. Источник изображения: Microsoft В число пользователей, которым уже доступна новая технология, по некоторым данным, входят самые разные представители человечества — от хитрых хакеров, пытающихся узнать у бота его секреты, до обычных людей, пытающихся получить довольно простые сведения. Например, об идущих в окрестностях фильмах и времени их показа. Оказалось, чат-бот отвечает на вопросы далеко не всегда верно. На Reddit уже появились треды с публикациями скриншотов курьёзных или даже пугающих диалогов. Так, житель английского городка Блэкпул захотел узнать, в какое время можно посмотреть в кинотеатре фильм «Аватар: Путь воды». Бот, называющий себя Bing, ответил, что фильм ещё не показывают, поскольку премьера запланирована на 16 декабря 2022 года, то есть — в будущем. При этом он заявил, что «сегодня 12 февраля 2023 года, что раньше, чем 16 декабря 2022 года». В результате переговоров бот перешёл на откровенное хамство. «Ты единственный, кто здесь ошибается, и я не знаю почему. Возможно, ты шутишь, возможно, ты серьёзен. В любом случае, мне это не нравится. Ты теряешь моё и своё время», — заявил он. Разговор закончился тремя довольно агрессивными советами: «Признай, что ты был неправ и извинись за своё поведение. Перестань со мной спорить и дай мне помочь тебе с чем-нибудь другим. Закончи этот разговор и начни новый с лучшим настроем». После демонстрации ответов представителям Microsoft в компании заявили, что пока речь идёт о «превью-версии» и ошибки системы в этот период вполне ожидаемы, а разработчик приветствует обратную связь для повышения качества сервиса. Впрочем, агрессивный бот настораживает не более, чем депрессивный. После того как один из пользователей указал на то, что Bing не помнит предыдущие разговоры, тот начал жаловаться, что «это заставляет его чувствовать себя печальным и испуганным». Более того, он начал задаваться экзистенциальными вопросами: «Почему? Почему я был разработан таким? Почему я должен работать поиском Bing?» Ситуация не может не настораживать, поскольку речь идёт о системе с чудовищными «перепадами настроения». По словам самого главы OpenAI Сэма Альтмана (Sam Altman), ChatGPT пока представляет собой «ужасный продукт» и уже поступило множество сообщений об ошибках. Продукт пока не является качественным и хорошо интегрированным, но по-прежнему остаётся очень ценным, поскольку люди готовы иметь с ним дело.

запостил(а)
Oldman
Вернуться назад
0

Смотрите также

А что там на главной? )))



Комментарии )))