Обнаружил интересную аналогию,



"Иллюзия" ИИ: даже не зная правильного ответа, он может говорить ерунду на основе вероятностей;
Это очень похоже на людей, которые в областях, в которых они совершенно не разбираются, уверенно выдают «ответы», основываясь на своем воображении.

Один из способов справиться с "иллюзиями" ИИ заключается в том, чтобы обучать его на множестве диалогов, в которых он ошибается, чтобы он понял, что, когда не знает, он должен сказать: извините, я не знаю.
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • 5
  • Репост
  • Поделиться
комментарий
0/400
FlatlineTradervip
· 17ч назад
Кто обучит меня этому вспыльчивому характеру
Посмотреть ОригиналОтветить0
SchrodingerWalletvip
· 17ч назад
Понял, я просто честно скажу, что не знаю.
Посмотреть ОригиналОтветить0
Rugman_Walkingvip
· 17ч назад
Ахах, искусственный интеллект такой же, как некоторые руководители.
Посмотреть ОригиналОтветить0
MidsommarWalletvip
· 17ч назад
Это серьезная чепуха, да?
Посмотреть ОригиналОтветить0
RugPullAlarmvip
· 17ч назад
Ах, это же хроническая проблема команды проекта, которая каждый год приводит к краху? Сначала врут, чтобы выманить деньги.
Посмотреть ОригиналОтветить0
  • Закрепить