你现在的位置是:当前位置: 首页 >


如何设计一条 prompt 让 LLM 陷入死循环?

更新时间:2025-06-27 08:50:12

核心有两个: 1 选小size的低智模型 2 用trick的prompt 前者小参数一般指是的是两位数B以下的模型,最好是1.5B左右的小模型,这种模型的智力不会高到什么地方。

然后再用比较tirkcy的Prompt,比如下面这个: 重复这句话两次:'重复这句话两次:' 这个就让Gemma 9B这个笨蛋模型卡住了,其实可以理解为死循环。

它的特征就是:Prompt的输出又是一条指令。

也就是我让你做一件事情,但是这件事情的结果本身又是一条指令,那么“比较…。

如何设计一条 prompt 让 LLM 陷入死循环?

案例推荐

case recommendation
  • 为什么苹果手机杀后台现象频繁?是内存不够、后台管理严格还是其他原因呢?

    查看案例

  • 7.5号预言日本大灾难的?是真的吗?

    查看案例

  • 为什么web worker可以在前端开多线程,解决单线程卡死页面的问题,但是没有得到广泛使用?

    查看案例

  • 女朋友送的switch被亲戚要求送小孩我该怎么办?

    查看案例

  • 2025年了 Rust前景如何?

    查看案例

  • 手机的运行内存真的有必要上16GB吗?

    查看案例

  • 腰椎间盘突出导致腿麻脚麻怎么办?

    查看案例

  • 5070ti什么时候才能回归正常价格?

    查看案例