新闻详情

研究称AI 越聪明越有可能“胡编乱造”

据媒体征引一项新研讨

表明

,跟着大型言语模型(LLM)变得越来越强壮,它们好像也越来越简单假造现实,而不是防止或回绝答复它们无法答复的问题。这表明,这些更聪明的 AI 谈天机器人实际上变得不太牢靠。

该研讨宣布在《天然》杂志上,研讨人员研讨了一些业界抢先的商业 LLM:OpenAI 的 GPT 和 Meta 的 LLaMA,以及由研讨小组 BigScience 创立的开源模型 BLOOM。研讨发现,尽管这些 LLM 的答复在许多情况下变得愈加精确,但总体上牢靠性更差,给出过错答案的份额比旧模型更高。

瓦伦西亚人工智能研讨地点西班牙的研讨员 José Hernández-Orallo 对《天然》杂志表明:“现在,它们简直能够答复全部。这意味着更多正确的答案,但也意味着更多过错的答案。”

← 返回新闻列表