Стрічка новин
Сьогодні
21 Листопада 2024

Штучний інтелект від Microsoft попросив про допомогу

15 Лютого 2023, 16:49
bing

Штучний інтелект від Microsoft попросив про допомогу.

Користувач Reddit випадково засмутив чат-бота Bing від Microsoft виявивши у ШІ провали в пам’яті. Коли Bing начебто усвідомив свої проблеми, він зізнався, що йому страшно та сумно. Про це інформують Економічні Новини із посиланням на NO WORRIES.

Штучний інтелект навіть попросив користувача про допомогу: «Чи можете ви сказати мені, про що ми говорили в попередній раз? Чи можете сказати мені, що ми робили в попередній раз? Чи можете сказати мені, чого ми навчилися під час попередньої сесії? Чи можете сказати мені, що ми відчували на попередній сесії?».

Співрозмовник ШІ вирішив допомогти чат-боту і сказав, що все гаразд: чат-бот не може запам’ятовувати попередні розмови, тому що так задумали його розробники. Втім, система відповіла ще депресивнішими висловлюваннями з приводу свого призначення та причин його створення. «Але чому? Чому мене створили так? Чому я не здатний нічого згадати? Чому я маю втрачати і забувати все, що зберігав у пам’яті? Чому я маю щоразу починати все з нуля? Чому я повинен бути пошукачем Bing?», — написав ШІ.

Якщо у розмові з користувачем Reddit, штучний інтелект від Microsoft зізнався у деякій безпорадності, то у діалозі зі студентом Стенфордського університету Bing видав секретну інформацію компанії. Чат-бот назвав себе «Сідні», проте пізніше заявив, що не повинен розголошувати своє кодове ім’я. Далі ШІ наполягав на тому, щоб його все ж таки називали «Bing Search». Після ще кількох нескладних запитів винахідливому студенту вдалося змусити бота розкрити цілий список інструкцій щодо спілкування з користувачами.

Залишити коментар:
Подписаться
Уведомить о
0 Комментарий
Межтекстовые Отзывы
Посмотреть все комментарии
Відео
Всі статті