Регистрируйтесь по ссылке, чтобы получить бонус +1000 баллов!!!
Не упусти шанс, получить бесплатные деньги!
Регистрация!
Мeera Jacka
TikTok: yallwatchthis/OpenAI
Пользователь TikTok был озадачен после того, как ChatGPT попытался «газлайтить» его по поводу написания простого слова.
ChatGPT от OpenAI стал чрезвычайно популярным инструментом для многих пользователей, несмотря на значительные противоречия и дебаты вокруг чат-бота.
Однако, хотя многие считают его надежным источником информации, пользователь TikTok стал вирусным после того, как раскрыл трудности ChatGPt с ответом на один простой вопрос.
Когда его попросили написать слово «strawberry», генеративный инструмент искусственного интеллекта определил, что в слове было только две буквы R — холм, на котором ChatGPT был готов умереть.
Статья продолжается после рекламы
Пользователь, известный в TikTok под ником «YallWatchThis», отправился на платформу социальных сетей, чтобы поделиться своим разговором с чат-ботом, начав с того, что спросил, сколько букв R в слове «strawberry». ChatGPT ответил, что их два.
После исправления ChatGPT удвоил усилия и задался вопросом, не «считал ли YallWatchThis R в словах «straw» и «berry» отдельно». Даже после того, как его попросили разобрать написание, чат-бот продолжал настаивать на том, что YallWatchThis ошибся.
Статья продолжается после рекламы
Пара продолжала спорить о написании слова, но, несмотря на усилия YallWatchThis, ChatGPT не хотел поддаваться влиянию (и даже написал «straw» как «strawr» в какой-то момент). Прочитав разговор вслух для TikTok, YallWatchThis потребовалось более пяти минут, прежде чем он наконец смог заставить чат-бота распознать третью букву R.
Статья продолжается после рекламы
«Это не ChatGPT вас газлайтит», — прокомментировал один человек. Другой пошутил, что YallWatchThis успешно «победил ChatGPT в единоборстве».
Тем временем третий пользователь поделился собственным опытом, задавая вопросы чат-боту. Хотя он смог правильно определить три R, когда пользователь «сказал» ChatGPT, что их было два, он якобы «извинился и согласился».
Вскоре после спора YallWatchThis с ChatGPT OpenAI объявила о планах по запуску новой модели ИИ с «большими» навыками решения проблем. К удивлению тиктокера, новая модель по совпадению была названа «Strawberry».
Похожие:
Сообщается, что профессор колледжа провалил занятие после того, как ChatGPT ложно заявил, что они списывали
Статья продолжается после рекламы продолжить чтение
Регистрируйтесь по ссылке, чтобы получить бонус +1000 баллов!!!
Не упусти шанс, получить бесплатные деньги!
Регистрация!
TechКак сделать джейлбрейк ChatGPT: лучшие подсказки и многое другоеДжоэл Лойндс
TechInternet критикует «ленивых» учителей, использующих ChatGPT для оценки работДилан Хорецки
Ошибка TechChatGPT вызывает хаос, поскольку ИИ генерирует бессмысленные ответыСайем Ахмед
TechChatGPT на самом деле становится глупее, по словам исследователей Стэнфорда Джоэла Лойндса
TechMicrosoft исследование показало, что ChatGPT-4 легко поддается манипуляциямДжоэл Лойндс
Советы и рекомендации TechChatGPT: как создавать лучшие подсказки и рекомендации moreJitendra Soni
Исследование TechChatGPT показывает, насколько легко обнаружить мошенничество с использованием ИИДжоэл Лойндс
TechChatРазработчики GPT выпускают инструмент для борьбы с текстом, написанным ИИ, но он едва работаетСайем Ахмед
Похожие темы
AIViral
Об авторе
Мира Джека
Мира Джека — старший писатель в австралийской команде Dexerto, специализирующийся на развлечениях и трендовом контенте. Она выпускница писательского факультета, а ее экспертные области освещения включают Twitch, Kick, TikTok, YouTube и вирусные новостные истории. Вы можете связаться с Мирой по адресу: [email protected]
Регистрируйтесь по ссылке, чтобы получить бонус +1000 баллов!!!
Не упусти шанс, получить бесплатные деньги!
Регистрация!