AI深度思考系列——大模型被当成了某度
猫哥崇拜的某大佬说:随着AI大模型的不断科普,很多人只是把大模型当百度用。于是对于一些复杂的问题,一个大模型没解决,就换下一个大模型,结果得到差不多的答案,然后换prompt,还是得不到答案,幻觉很严重,然后无限循环,直至崩溃。
猫哥第一反应,为什么我没想到这些?大佬就是大佬!接下来问题拆解,似乎可以有几个方面:
- 大模型的局限性是什么?
- 为什么人们会陷入“换模型、换提示词”的循环?
- 搜索引擎和问答网站的价值在哪里?
- 技术使用方式和人类认知模式之间的关系是什么?
- 是否存在一种更高效的使用大模型的方式?
下班后,猫哥独自坐在黑暗中胡思乱想了一会儿,于是有了如下结果的文字:
大模型不是“搜索引擎”,它是概率机器
大模型的核心问题在于,它本质上是一个基于概率预测的生成工具,而不是一个事实验证的工具。它的回答是基于训练数据中的模式生成的,而不是基于对现实的直接理解。比如,GPT-3的参数量达到1750亿,训练数据覆盖了海量的文本语料库,但它生成的内容并不总是准确的,甚至可能出现幻觉(hallucination)。
这就导致了一个矛盾:人们希望它像搜索引擎那样提供“确定性答案”,但它却只能提供“可能性答案”。上文提到的“换模型、换提示词”的现象,其实就是用户在试图弥补这种不确定性。他们希望通过不断尝试,找到一个更接近真相的答案。但问题是,这种方式不仅低效,还可能让用户对技术的局限性产生更深的误解。
搜索引擎和问答网站的价值:确定性与验证
相比之下,搜索引擎和问答网站的价值在于它们提供了“确定性”。搜索引擎的结果是基于网页索引和关键词匹配的,用户可以通过多轮搜索和交叉验证来确认信息的准确性。而问答网站,比如知乎、Quora,通过社区机制和专家参与,提供了经过验证的答案。这种验证机制是大模型无法替代的。
举个例子:如果某人需要查找某个行业的白皮书,搜索引擎可以直接带他/她找到权威来源,而大模型可能会生成一个看似合理的“白皮书摘要”,但它的内容可能是拼凑的,甚至是错误的。这种差异决定了,大模型更适合用来辅助思考,而不是直接解决问题。
技术的普及带来了“工具化”思维
还有一个更深层次的问题是,技术的普及往往会带来一种“工具化”思维。人们倾向于用最简单的方式使用新技术,而忽视它的复杂性和局限性。大模型的易用性让人们误以为它可以解决所有问题,但实际上,它的强项在于辅助性任务,比如生成创意内容、优化流程、提供个性化建议等。
比如,LinkedIn用大模型推荐高级产品,Discord用它生成创意工具,Shopify用它生成产品描述。这些应用都体现了大模型的辅助性价值,而不是直接解决问题的能力。但当人们把它当成“万能工具”时,就会忽略它的边界,从而陷入低效的循环。
更高效的使用方式:把大模型当“伙伴”,而不是“工具”
要避免这种低效循环,关键是要改变对大模型的使用方式。它不是一个工具,而是一个“伙伴”。工具是用来完成任务的,而伙伴是用来辅助思考的。比如:当某人面对一个复杂问题时,可以先用大模型生成初步的思路,然后通过搜索引擎和问答网站验证这些思路的准确性。这样,大模型的生成能力和搜索引擎的验证能力就能形成互补。
例如:如果某人在研究某个行业趋势,可以先用大模型生成一个框架,比如“行业现状、挑战、未来方向”等,然后通过搜索引擎查找具体的白皮书、行业报告来填充这些框架。这样不仅效率更高,还能避免陷入“换模型、换提示词”的循环。
技术与人类认知的协同进化
最后,以上反映了技术与人类认知模式之间的关系。技术的进步并不是单纯地替代人类,而是帮助人类扩展认知边界。大模型的出现让我们有机会重新思考“知识”和“智能”的定义。它提醒我们,真正的智能不仅仅是快速生成答案,更是对问题本质的深刻理解和对答案准确性的严格验证。
猫哥说:
大模型的真正价值,不是让人类更高效地找到答案,而是让人类更深刻地理解问题。它是一个起点,而不是终点。