中心论点
- 清晰具体的提示对于减少人工智能幻觉至关重要。 避免含糊的指示并提供明确的细节,以避免不可预测的结果。
- 使用接地或“到……”技术将输出归因于特定的来源或观点。 这有助于避免人工智能生成内容中的事实错误和偏见。
- 使用约束和规则根据期望的结果塑造 AI 输出。 通过上下文或任务明确或暗示约束,以防止不适当或不合逻辑的输出。
没有从生成式 AI 模型中得到您想要的响应? 您可能正在处理人工智能幻觉,这是当模型产生不准确或不相关的结果时出现的问题。
这是由多种因素造成的,例如用于训练模型的数据质量、缺乏上下文或提示不明确。 幸运的是,您可以使用一些技术从人工智能模型获得更可靠的输出。
1. 提供清晰具体的提示
减少人工智能幻觉的第一步是创建清晰且高度具体的提示。 模糊或不明确的提示可能会导致不可预测的结果,因为人工智能模型可能会尝试解释提示背后的意图。 相反,请在您的指示中明确说明。
不要问“告诉我关于狗的事”,你可以说,“请详细描述一下金毛寻回犬的身体特征和性情。”当你完善你的提示直到清晰为止时,你可以选择简单的提示。人工智能的幻觉。
2. 使用接地或“根据……”技术
使用人工智能系统的挑战之一是它们可能会产生实际上不正确、有偏见或与你的观点或价值观不一致的结果。 之所以会发生这种情况,是因为人工智能系统是在大型且多样化的数据集上进行训练的,这些数据集可能包含错误、观点或矛盾。
为了避免这种情况,您可以使用接地或“to…”技术,将输出分配给特定的源或视角。 例如,你可以要求人工智能系统根据维基百科写出有关某个主题的事实, Google 科学家或特定的公开来源。
3. 使用限制及规则
约束和规则可以帮助防止人工智能系统产生不适当、不一致、矛盾或不合逻辑的结果。 他们还可以根据期望的结果和目的帮助塑造和完善输出。 约束和规则可以在提示中明确说明,也可以通过上下文或任务隐式暗示。
假设你想使用人工智能工具写一首关于爱情的诗。 您可以提供更有限且基于规则的提示,例如“写一首关于爱情的十四行诗,每行 10 个音节”,而不是给出“写一首关于爱情的诗”之类的一般提示。
4.使用多步骤命令提示符
有时,复杂的问题可能会导致人工智能产生幻觉,因为模型试图一步一步地回答这些问题。 要解决此问题,请将查询分成多个步骤。
例如,不要问“最有效的糖尿病治疗方法是什么?”你可以问“糖尿病最常见的治疗方法是什么?”然后你可以问:“根据医学研究,这些治疗方法中哪种被认为是最有效的?”学习?”
多步骤提示迫使人工智能模型在得出最终答案之前提供中间信息,这可以带来更准确、更明智的答案。
5. 为AI分配角色
在提示中赋予人工智能模型特定的角色将阐明其目的并减少产生幻觉的可能性。 例如,你可以问人工智能,“假设一个勤奋的研究人员的角色,并提供量子力学历史上关键里程碑的摘要”,而不是说“告诉我量子力学的历史”。
这个框架鼓励人工智能充当勤奋的研究者,而不是推测性的故事讲述者。
6. 添加上下文信息
在需要时未能提供上下文信息是使用时应立即避免的错误 ChatGPT 或其他人工智能模型。 上下文信息有助于模型理解任务的背景、领域或目的,并生成更相关、更连贯的结果。 上下文信息包括关键字、标签、类别、示例、参考文献和来源。
例如,如果您想为一副耳机创建产品评论,您可以提供上下文信息,例如产品名称、品牌、功能、价格、评级或客户反馈。 此任务的良好提示可能如下所示:
获得更好的 AI 反应
当您没有从人工智能模型中获得预期的反馈时,您可能会感到沮丧。 然而,使用这些人工智能输入技术,您可以减少人工智能幻觉的机会,并从人工智能系统中获得更好、更可靠的答案。
请记住,这些技术并非万无一失,可能不适用于所有任务或主题。 在将人工智能输出用于严肃目的之前,您应该始终检查和验证它们。