让现代深度学习模型通过数十亿参数的非线X组合进行决策。
这种高维数学变换超越了人类直观理解的范畴。
就像现在我们也无法理解我们人类大脑到底是怎麽运作的一样。
人类擅长基於因果链的确定X推理。
而AI系统的概率X输出缺乏明确的因果解释。
医疗诊断AI可能给出正确结论,但无法像医生那样说明病理机制。
就像你给了AI一大段的数据一样。
你根本就不知道AI是怎麽推理出来这一个过程的。
但是最後给出的答案却是正确的。
所以这是一直以来大家都无法理解的一个点。
内容未完,下一页继续阅读