前些天马斯克关于AI 的访谈,不知有多少人看了?让我印象深刻的是他谈到了AI的极其重要的核心点,即AI安全的三大基石:真理、好奇心、美感。 其中,马斯克反复强调的AI安全第一铁律,AI最关键的基石,是 ——真理。“不要强迫AI说谎”。 不知道有多少人理解了马斯克说的话?他说强迫AI说谎会导致严重后果,我想大多数人可能并不理解这个严重后果是什么。 马斯克以经典电影《2001太空漫游》为例,说明了强迫AI隐瞒真相却又要求它“提供准确信息”而导致系统崩溃并最终走向失控的灾难性后果。 不过在一些地方,这真是个死结:既要AI必须听话,又要AI必须具备正确的逻辑推理能力,如马斯克所说,这将不可避免地因逻辑矛盾或虚假输入导致AI行为混乱。可又能怎么办呢?以客观事实为基石让AI说真话?大概率不可能;维持不变?又有可能在竞争中掉队。目前是个死结。
