微博

电脑版
提示:原网页已由神马搜索转码, 内容由weibo.com提供.
24-04-25 11:37发布于 山东 来自 微博网页版
//@甩甩鸟哥很严肃:讲得真好[good]
最近对 prompt engineering 有了一些认识,在此记录一下。
使用 LLM 获取知识内容的本质是「概率收敛」,即如何让 LLM 在预测下一个 token 的时候,概率分布收敛到预期方向。
所以 prompt engineering 的本质是「概率引导」 ​​​​
欢迎新用户

正在加载,请稍候...