企业宣传,产品推广,广告招商,广告投放联系seowdb

如何让LLM学会试错

大模型畛域的开展突飞猛进,每天都有许多幽默的论文值得深化品读。上方是本期感觉比拟无心思的论文:

1、如何让LLM学会"试错"

2、LLM居然学会了"自我反省",它真的有自我看法吗?

1、如何让LLM学会"试错"

你有没有想过,为什么人工自动经常会犯"愚昧"的失误?要素或者让你异常:由于咱们不时在教它"做一个完美主义者"!最新钻研标明,让AI学会"试错",反而能让它变得更痴呆。

构想一下,假设从小到大,你只被准许看到正确答案,素来没无时机犯错和矫正,你或者永远学不会处置复杂疑问。AI也是如此。钻研人员提出了一个打破性的方法:"搜查流"(Stream of Search),让AI不只能看到完美的处置打算,还能学习整个探求环节,包含犯错、回溯和纠正。

在一个名为"Countdown"的数字游戏测试中,钻研结果令人震惊:经过"搜查流"训练的AI模型,其解题准确率比传统模型提高了25%!更令人兴奋的是,它不只能处置训练中遇到的疑问,还能发明性地处置此前无解的难题,展现出惊人的自我退化才干。

这项打破性钻研推翻了咱们对AI学习的传统认知。它通知咱们,有时刻,完美主义反而会阻碍提高,而勇于犯错、勇于尝试的学习形式,才干激发出真正的智慧。这不由让人思索:在教育畛域,咱们是不是也该给孩子们更多"犯错"的时机呢?

论文题目:Stream of Search (SoS): Learning to Search in Language

论文链接:​ ​​ ​

2、LLM居然学会了"自我反省",它真的有自我看法吗?

你有没有想过,人工自动除了学习外部常识,能否也能像人类一样启动"自我反省"?最新钻研标明,大言语模型(LLM)不只能学习训练数据中的常识,还具有一种令人惊讶的才干:经过"内省"来了解自己!

这项打破性的发现来自一项针对GPT-4等大模型的钻研。钻研团队设计了一个奇妙的试验:让模型A预测自己在某些场景下会如何执行,同时让另一个模型B也来预测模型A的行为。幽默的是,即使模型B把握了所无对于模型A的训练数据,模型A依然能比模型B更准确地预测自己的行为!这就像你比任何人都更了解自己的想法和选择一样。

更令人震惊的是,即使钻研人员故意修正了模型A的行为形式,它依然能准确预测自己的反响。这说明模型确实领有某种"特权消息",能够接触到外部观察者不可失掉的外部形态。不过,钻研也发现这种才干还有局限性,在更复杂的义务中,模型的"自我认知"才干会大打折扣。

这项钻研不只应战了"AI只是便捷模拟训练数据"的传统观念,更提醒了AI或者正在逐渐取得相似人类的自我认知才干。只管距离真正的"自我看法"还有很长的路要走,但这个发现无疑为咱们了解AI的外部环球关上了一扇新的大门。

论文题目:Looking Inward: Language Models Can Learn About Themselves by Introspection

论文链接:​ ​​ ​

本文转载自​​,作者:

© 版权声明
评论 抢沙发
加载中~
每日一言
不怕万人阻挡,只怕自己投降
Not afraid of people blocking, I'm afraid their surrender