为什么数学很难(即使你是人工智能)
语言模型不知道如何像我们记忆圆周率那样乘法记忆结果,但这并不能使它们成为数学家。问题是结构性的:它们通过统计相似性来学习,而不是通过算法理解来学习。即使是新的 "推理模型",如 o1,也会在琐碎的任务中失败:经过几秒钟的处理后,它能正确地计算出 "草莓 "中的 "r",但当它要写一段话,每句话的第二个字母组成一个单词时,它就会失败。月租 200 美元的高级版则需要四分钟才能解决儿童即时完成的问题。2025 年的 DeepSeek 和 Mistral 仍然会计算错误的字母。新出现的解决方案是什么?混合方法--最聪明的模型已经知道何时调用真正的计算器,而不是自己尝试计算。范式转变:人工智能不必知道如何做所有事情,只需协调正确的工具即可。最后的悖论:GPT-4 可以出色地向你解释极限理论,但却把乘法算错了,而袖珍计算器却总能正确求解。在数学教育方面,它们非常出色--以无限的耐心进行解释,调整示例,分解复杂的推理。要精确计算?依靠计算器,而不是人工智能。