在这里借用芒格的反向思维: 那么,输掉这场中美人工智能竞赛有什么坏处呢?虽然不是第一名……但获得第二名呢? 如果这是一场具有高度破坏性社会成本的竞赛呢? 在这种情况下,你不希望“赢家”赢得第一名,以便你可以确切地看到胜利意味着什么吗? 这是个天真的问题吗?