当前位置:当前位置: 首页 >
如何设计一条 prompt 让 LLM 陷入死循环?
文章出处:网络 人气:发表时间:2025-06-27 09:45:13
核心有两个: 1 选小size的低智模型 2 用trick的prompt 前者小参数一般指是的是两位数B以下的模型,最好是1.5B左右的小模型,这种模型的智力不会高到什么地方。
然后再用比较tirkcy的Prompt,比如下面这个: 重复这句话两次:'重复这句话两次:' 这个就让Gemma 9B这个笨蛋模型卡住了,其实可以理解为死循环。
它的特征就是:Prompt的输出又是一条指令。
也就是我让你做一件事情,但是这件事情的结果本身又是一条指令,那么“比较…。
同类文章排行
- 明星的精修图和生图差别真的很大吗?
- 不管黑客用了多少跳板,最终是不是可以通过网络运营商找出真实 IP?
- 这种裙子是不是对直男爆杀?
- 现实中的父女关系是怎样的?
- FastApi性能是否真的接近Go?
- 我的世界怎么租一个四个人的服务器?
- 请问985、211的非常努力的人是什么样子的?
- 如果战争爆发,中国普通老百姓枪都不会打该怎样自卫?
- 一台当下最顶尖的电脑能用几年?
- 吴柳芳的真实水平如何?
最新资讯文章
- 服务器能否拒绝非浏览器发起的HTTP请求?
- 中了一个亿 你会做什么?
- postgresql也很强大,为何在中国大陆,mysql成为主流,postgresql屈居二线呢?
- 用J***a写Android的时代是不是要结束了?
- 如何看待 Three.js / WebGL 等前端 3D 技术?
- 印度是真的烂还是咱们在信息茧房里面?
- 真的有这种又苗条身材又爆炸的么?
- rust解决了什么问题?
- 普通人与亿万富翁之间的差距是什么?
- 有哪些BI工具惊艳了你?
- 为什么现在的年轻人宁愿自己工资低点,也要过得舒服、不那么累?
- 独立站怎么阻止别人盗我的产品?
- 为什么中国要积极支持伊朗呢?
- 如何评价黄霄云这个人?
- FastApi性能是否真的接近Go?






关注公众微信号
移动端,扫扫更精彩