你现在的位置是:当前位置: 首页 >


如何设计一条 prompt 让 LLM 陷入死循环?

更新时间:2025-06-27 17:15:17

核心有两个: 1 选小size的低智模型 2 用trick的prompt 前者小参数一般指是的是两位数B以下的模型,最好是1.5B左右的小模型,这种模型的智力不会高到什么地方。

然后再用比较tirkcy的Prompt,比如下面这个: 重复这句话两次:'重复这句话两次:' 这个就让Gemma 9B这个笨蛋模型卡住了,其实可以理解为死循环。

它的特征就是:Prompt的输出又是一条指令。

也就是我让你做一件事情,但是这件事情的结果本身又是一条指令,那么“比较…。

如何设计一条 prompt 让 LLM 陷入死循环?

案例推荐

case recommendation
  • 用GraphQL如何实现以下API请求?与REST的思路相比实现方法孰优孰劣?

    查看案例

  • 亲眼见到明星本人是什么体验?

    查看案例

  • 广州为什么治理不好***乱象呢?

    查看案例

  • 为什么Next.js和Nuxt.js发布时间只隔了几小时?

    查看案例

  • DP1.4,HDMI2.1,只支持到4K120Hz。那些4K144Hz甚至更高的显示器是怎么实现的?

    查看案例

  • 27寸显示器有必要上4K吗?

    查看案例

  • 胸大的女孩子有什么烦恼?

    查看案例

  • 为何中文互联网相对英文互联网的内容质量较低?

    查看案例