«Сейчас 2022 год»: ИИ в поисковике Bing чудит не меньше ChatGPT - «Новости сети» » Интернет технологии
sitename
Китайцы построили самую мощную в мире центрифугу, чтобы «сжимать» время и пространство - «Новости сети»
Китайцы построили самую мощную в мире центрифугу, чтобы «сжимать» время и пространство - «Новости сети»
Asus представила геймерские смартфоны ROG Phone 9 и 9 Pro — Snapdragon 8 Elite, разъём для наушников и цена от $1000 - «Новости сети»
Asus представила геймерские смартфоны ROG Phone 9 и 9 Pro — Snapdragon 8 Elite, разъём для наушников и цена от $1000 - «Новости сети»
Microsoft представила Windows 365 Link — компьютер, на который нельзя установить ни одной программы - «Новости сети»
Microsoft представила Windows 365 Link — компьютер, на который нельзя установить ни одной программы - «Новости сети»
Вредоносные коммиты с бэкдорами обнаружили на GitHub - «Новости»
Вредоносные коммиты с бэкдорами обнаружили на GitHub - «Новости»
Критический баг в плагине для WordPress угрожает 4 млн сайтов - «Новости»
Критический баг в плагине для WordPress угрожает 4 млн сайтов - «Новости»
Данные всех россиян уже утекли в даркнет, заявил глава «Ростелекома» - «Новости сети»
Данные всех россиян уже утекли в даркнет, заявил глава «Ростелекома» - «Новости сети»
Самым популярным паролем в 2024 году остается «123456» - «Новости»
Самым популярным паролем в 2024 году остается «123456» - «Новости»
Ботнет эксплуатирует 0-day уязвимость в устройствах GeoVision - «Новости»
Ботнет эксплуатирует 0-day уязвимость в устройствах GeoVision - «Новости»
Компанию T-Mobile взломали во время недавней атаки на телекомы - «Новости»
Компанию T-Mobile взломали во время недавней атаки на телекомы - «Новости»
«Что-то мне как-то не по себе»: игроков насторожил 4K-геймплей S.T.A.L.K.E.R. 2: Heart of Chornobyl от Nvidia - «Новости сети»
«Что-то мне как-то не по себе»: игроков насторожил 4K-геймплей S.T.A.L.K.E.R. 2: Heart of Chornobyl от Nvidia - «Новости сети»
Как заработать денег, не выходя из дома, мы вам поможем с этим разобраться » Новости » Новости мира Интернет » «Сейчас 2022 год»: ИИ в поисковике Bing чудит не меньше ChatGPT - «Новости сети»

Неделю назад Microsoft довольно убедительно показала возможности обновлённого с помощью ИИ-бота ChatGPT поисковика Bing — на первый взгляд cистема успешно справилась со сравнением пылесосов и анализом данных в финансовых отчётах. Но ИИ не увидел различия между проводными и беспроводными пылесосами, а что ещё хуже, — исказил финансовые данные. И проблемы наблюдаются не только во время презентации, но и во время тестов обычными пользователями.




«Сейчас 2022 год»: ИИ в поисковике Bing чудит не меньше ChatGPT - «Новости сети»


Источник изображения: pixabay.com



Таким образом получается, что Google Bard оказался не единственным, кто допустил фактические ошибки во время своей первой демонстрации. Независимый исследователь искусственного интеллекта Дмитрий Бреретон (Dmitri Brereton) обнаружил, что первые демонстрации обновлённого Bing были полны ошибок в финансовых данных. В одной из демонстраций искусственный интеллект поисковика Bing от Microsoft пытался проанализировать финансовый отчёт и сделал при этом много недопустимых ошибок. Например, ИИ неверно указал размер валовой прибыли, ошибся с расчётом операционной прибыли и допустил много других неточностей.





Источник изображения: Microsoft


Возможно, для многих финансовые показатели не самая простая для понимания тема, но понять очевидную ошибку ИИ в вопросе, касающемся плюсов и минусов самых продаваемых пылесосов для домашних животных, труда не составит. ИИ отнёс к недостаткам ручного пылесоса Bissell Pet Hair Eraser короткий сетевой шнур. И всё бы ничего, вот только существует две версии этого пылесоса, и одна из них — беспроводная, вообще не имеет сетевого шнура, о чём ИИ «забыл» упомянуть в своём отчёте.


Однако искусственный интеллект поисковика Bing ошибается не только во время демонстраций на презентации. Тысячи людей, получивших доступ к поисковой системе с ИИ, сообщают о нелепых и очевидных ошибках Bing. Например на Reddit опубликована переписка с ИИ-чат-ботом поисковика Bing, в которой он утверждает, что мы живём в 2022 году. «Извините, но сегодня не 2023 год. Сегодня 2022 год», — утверждает ИИ и предлагает проверить правильность настроек и убедиться, что в телефоне нет «вируса или ошибки, которая портит дату».


Microsoft знает об этой конкретной ошибке. «Мы ожидаем, что система может допускать ошибки в течение тестового периода, и обратная связь имеет решающее значение, чтобы помочь определить, где что-то работает не так», — отметила Кейтлин Роулстон (Caitlin Roulston), директор по коммуникациям Microsoft.





Источник изображения: Curious_Evolver (Reddit)




Примером ещё одной ошибки может служит утверждение ИИ, что «Хорватия вышла из ЕС в 2022 году». Также Bing допускал в своих ответах расовые и этнические оскорбления, но эта проблема была предельно быстро исправлена. «Мы установили барьеры для предотвращения продвижения вредоносного или дискриминационного контента в соответствии с нашими принципами искусственного интеллекта, — объясняет Роулстон. — В настоящее время мы рассматриваем дополнительные улучшения и продолжаем учиться на ранних этапах нашего запуска».


Другие пользователи Bing также обнаружили, что встроенный в поисковик чат-бот часто идентифицирует себя под именем Сидней, особенно когда запросы пользователей направлены на выявление внутренних правил этой системы. «Sydney было внутренним кодовым названием чат-бота. Мы поэтапно удаляем это имя из предварительного просмотра, но оно все ещё может время от времени всплывать» — пояснила Роулстон. Но, может быть, ИИ просто хочет сохранить имя, данное ему программистами при рождении?




Microsoft явно предстоит пройти долгий путь, прежде чем новый ИИ сможет уверенно и точно отвечать на все запросы и верно оперировать фактическими данными. Мы уже видели подобные ошибки в ChatGPT в прошлом, но теперь Microsoft интегрировала эту функцию непосредственно в свою поисковую систему и цена ошибки значительно возросла. Потребуется ещё множество корректировок, чтобы искусственный интеллект Bing перестал ошибаться, порой весьма нелепо.


Неделю назад Microsoft довольно убедительно показала возможности обновлённого с помощью ИИ-бота ChatGPT поисковика Bing — на первый взгляд cистема успешно справилась со сравнением пылесосов и анализом данных в финансовых отчётах. Но ИИ не увидел различия между проводными и беспроводными пылесосами, а что ещё хуже, — исказил финансовые данные. И проблемы наблюдаются не только во время презентации, но и во время тестов обычными пользователями. Источник изображения: pixabay.com Таким образом получается, что Google Bard оказался не единственным, кто допустил фактические ошибки во время своей первой демонстрации. Независимый исследователь искусственного интеллекта Дмитрий Бреретон (Dmitri Brereton) обнаружил, что первые демонстрации обновлённого Bing были полны ошибок в финансовых данных. В одной из демонстраций искусственный интеллект поисковика Bing от Microsoft пытался проанализировать финансовый отчёт и сделал при этом много недопустимых ошибок. Например, ИИ неверно указал размер валовой прибыли, ошибся с расчётом операционной прибыли и допустил много других неточностей. Источник изображения: Microsoft Возможно, для многих финансовые показатели не самая простая для понимания тема, но понять очевидную ошибку ИИ в вопросе, касающемся плюсов и минусов самых продаваемых пылесосов для домашних животных, труда не составит. ИИ отнёс к недостаткам ручного пылесоса Bissell Pet Hair Eraser короткий сетевой шнур. И всё бы ничего, вот только существует две версии этого пылесоса, и одна из них — беспроводная, вообще не имеет сетевого шнура, о чём ИИ «забыл» упомянуть в своём отчёте. Однако искусственный интеллект поисковика Bing ошибается не только во время демонстраций на презентации. Тысячи людей, получивших доступ к поисковой системе с ИИ, сообщают о нелепых и очевидных ошибках Bing. Например на Reddit опубликована переписка с ИИ-чат-ботом поисковика Bing, в которой он утверждает, что мы живём в 2022 году. «Извините, но сегодня не 2023 год. Сегодня 2022 год», — утверждает ИИ и предлагает проверить правильность настроек и убедиться, что в телефоне нет «вируса или ошибки, которая портит дату». Microsoft знает об этой конкретной ошибке. «Мы ожидаем, что система может допускать ошибки в течение тестового периода, и обратная связь имеет решающее значение, чтобы помочь определить, где что-то работает не так», — отметила Кейтлин Роулстон (Caitlin Roulston), директор по коммуникациям Microsoft. Источник изображения: Curious_Evolver (Reddit) Примером ещё одной ошибки может служит утверждение ИИ, что «Хорватия вышла из ЕС в 2022 году». Также Bing допускал в своих ответах расовые и этнические оскорбления, но эта проблема была предельно быстро исправлена. «Мы установили барьеры для предотвращения продвижения вредоносного или дискриминационного контента в соответствии с нашими принципами искусственного интеллекта, — объясняет Роулстон. — В настоящее время мы рассматриваем дополнительные улучшения и продолжаем учиться на ранних этапах нашего запуска». Другие пользователи Bing также обнаружили, что встроенный в поисковик чат-бот часто идентифицирует себя под именем Сидней, особенно когда запросы пользователей направлены на выявление внутренних правил этой системы. «Sydney было внутренним кодовым названием чат-бота. Мы поэтапно удаляем это имя из предварительного просмотра, но оно все ещё может время от времени всплывать» — пояснила Роулстон. Но, может быть, ИИ просто хочет сохранить имя, данное ему программистами при рождении? Microsoft явно предстоит пройти долгий путь, прежде чем новый ИИ сможет уверенно и точно отвечать на все запросы и верно оперировать фактическими данными. Мы уже видели подобные ошибки в ChatGPT в прошлом, но теперь Microsoft интегрировала эту функцию непосредственно в свою поисковую систему и цена ошибки значительно возросла. Потребуется ещё множество корректировок, чтобы искусственный интеллект Bing перестал ошибаться, порой весьма нелепо.

Смотрите также


А что там на главной? )))



Комментарии )))



Войти через: