Replies: 1 comment
-
我发现我好像发错地方了,我去Qwen1.5那边再发一个 |
Beta Was this translation helpful? Give feedback.
0 replies
Sign up for free
to join this conversation on GitHub.
Already have an account?
Sign in to comment
-
我想用千问来做写故事的文字游戏。一开始搭建了32b的模型。
我发现32b在提示词较长时有些纠正不了的逻辑问题
(具体表现是:可能是因为训练集的原因,每次写小说故事都必须加一段对后续发展的展望与总结,比如“这只是故事的开始”、“xxx的故事才刚刚开始”、“一个xxx的故事解开了序幕”、“等待着下一场xxx旅程的开始”或者其他类似这样带有剧透的话。这对于沉浸式故事的创作是致命的。即使是加入大量提示词也无法纠正这一问题,只能略微减少出现频率。)
于是我升级到了72b模型,然后发现这个问题得到了极大的缓解,只要稍微添加提示词就能基本阻止Qwen输出这样的话(虽然偶尔还是有漏网之鱼)
但是我发现在写故事这个事情上,72b的模型和32b的模型的行为存在巨大的差异,简直都不像同一个模型。
在我见到的大多数情况下,72b模型的回答会更加简短,言简意赅,甚至像是平铺直叙,而32b模型则更长、更详细、更有画面感。极端情况下,我遇到过32b模型能给出600字的描写,而72b模型只能给出100字左右。表现得简直不像是同一个模型。
这个结果让我有点意外,想和大家讨论讨论。说不上是好还是不好。也不明白其中原理。
我想知道这是不是模型特性,还是说我的使用上出现了一些问题。总之现在经过一些让72b加长描写字数提示词的尝试,效果依旧不好,感觉挫败感挺强的。
Beta Was this translation helpful? Give feedback.
All reactions