谁是“造物主”?关于DeepSeek的冷思考
原创 小复 复旦大学出版社
我们正在经历一场静默的“创世记”:
AI生成媲美人类的作品
基因编辑重塑生命密码
元宇宙构建平行宇宙
究竟谁才是这个时代的“造物主”?
2025年1月20日,幻方量化旗下AI公司深度求索(DeepSeek)正式发布DeepSeek-R1模型,这款模型以令人难以置信的低成本实现了与AI巨擘OpenAI的o1模型比肩甚至超越的卓越性能,被认为是大模型行业的最大“黑马”。
仅一周后,DeepSeek凭借其革命性的技术与无与伦比的用户体验,同时登顶苹果中美两区App免费榜。自此,DeepSeek成为了全球对话中不可或缺的关键词,全世界的目光聚焦于斯,热议如潮。DeepSeek不再仅仅是一个公司的名字,它成为了智慧与创新的代名词,激发了人们对未来无限可能的憧憬与探索。
在科技日新月异的时代,DeepSeek等前沿技术的兴起,无疑为我们的生活带来了前所未有的便利。从智能助手到自动化生产,从个性化推荐到精准医疗,人工智能(AI)正以破竹之势渗透到社会的每一个角落,重塑着我们的生活方式和工作模式。
我们享受着DeepSeek带来的便利,却也常常陷入面对人工智能(AI)取代焦虑时的迷茫与担忧。AI的广泛应用是否意味着对人类工作的全面取代?这种担忧并非空穴来风,随着AI技术的不断成熟,越来越多的岗位开始受到冲击,从简单的重复性劳动到复杂的知识密集型工作,似乎都在AI的“狩猎”范围之内。面对这样的现实,人们难免陷入迷茫与焦虑之中,担心自己会成为技术革命的牺牲品。
焦虑并非全然负面,它既是人类面对未知的本能反应,也是推动我们寻求变革与突破的内在动力。但正是这种焦虑,促使我们不得不从更深层次去审视和思考现代技术的发展。
在AI取代焦虑的背后,隐藏的是对技术伦理、人类价值以及未来社会结构的深刻反思。我们不得不问:在AI日益智能的今天,人类的意义何在?我们的工作、生活和情感又将如何自处?
《谁是“造物主":关于技术的哲学思考》
林德宏 王治东 著
刘畅 责编
2024年12月,复旦大学出版社
《谁是“造物主":关于技术的哲学思考》一书或许能为我们拨开眼前的迷雾,引领我们走进一个更加清晰、理性的思考空间。
通过哲学的视角,我们可以重新审视技术的本质、价值以及它与人类的关系,从而找到在技术浪潮中保持自我、实现成长的路径。
“
技术的本质
与人类的使命
”
本书用马克思主义观点对技术的本质、人与技术的关系进行哲学思考:书中明确指出,技术的本质是“造物”,即制造自然界中不可能出现的人工自然物。从古老的石器制造到如今复杂的人工智能系统,人类一直在用技术改变世界。
然而,技术并非独立于人类之外的神秘力量,它的背后是人类的智慧和创造力。正如本书所言,技术只是人类造物的手段,真正的“造物主”是人类,是我们赋予了技术以意义和方向。“真正的造物主从不炫耀技术神迹,而是守护人性星火。”
技
术
“
技术批判:
警惕技术的“双刃剑”效应
”
技术的发展无疑为人类带来了巨大的福祉,但同时也带来了诸多挑战和风险。本书对技术的批判性思考令人深思。例如,技术的快速发展可能导致人类对技术的过度依赖,甚至被技术所“取代”。人工智能(AI)的崛起就是一个典型案例,它在许多领域展现出超越人类的能力,但这种取代是否真的符合人类的利益?作者提醒我们,技术的发展不能脱离人类的价值观和社会伦理。
技
术
以下是《谁是“造物主":关于技术的哲学思考》作者林德宏、王治东对人工智能技术发展的思考。
人工智能技术及其对人的“终极取代”
从哲学上看,人工智能技术的实质,是对人的终极取代。它取代人的智能、意识,最终完成了对人的全面、彻底的取代,实现了人的非人化。它的每一项创新,都是向这个终极目标前进一步,都是向人类发出一次比一次更加严峻的挑战。
1946年,第一台计算机问世,取代人的计算功能。两年后控制论专家艾什比就敲响了警钟:机器将可能统治人类。1960年,维纳说:“如果机器变得越来越有效,而且在一个越来越高的心理水平上运转。那么巴特勒所预言的,人被机器统治的灾难就越来越近了。”
1863年,塞缪尔·巴特勒曾问道:“谁是人类的继承者?”答案是:“我们正在创造我们自己的继承者。在将来的某一天,人类与机器的关系就如同现今动物与人的关系。结论就是,机器具有或将有生命。”
1976年,科学家用计算机证明了四色原理。有人说一个数学家证明它要90万年,当时的计算机只用了1200小时。这表明计算机开始取代人的逻辑思维,美国邮电部门为此还制作了纪念邮戳。1995年,计算机专家德·加里斯说:“21世纪全球政治的主要问题是,地球将由哪个物种统治——该由人还是人工智能机器人统治这个星球。我对我们将会遭受的苦难非常清楚。它们可能会变成统治种族。”
人工智能技术的第一波冲击,是“深蓝”计算机战胜了国际象棋大师卡斯帕罗夫,轰动全世界。卡斯帕罗夫赛前对记者说:“‘深蓝’如果取胜,那将是人类历史上的一个非常重要而令人恐惧的里程碑。未来的人们回顾历史时会说,这是机器第一次在纯粹理智的领域超越了人类。”
与此同时,英国著名人工智能专家凯文·渥维克出版《机器的征途——为什么机器人将统治世界》,预言2050年机器人将统治人类。全书的最后一句话是:“我们给人类自身安装了一个定时炸弹,而我们将无法关闭它。我们没有办法阻止机器的前进。”
1999年12月24日,《南方周末》发表了一则漫画——一个机器人端坐着,双膝上坐着十个人,并附有一句“让机器人做我们的爷爷,我们会生活得很惬意”的说明。在傻瓜照相机流行时,笔者曾说如果过分依赖自动装置,聪明人也会变成傻瓜。
面对人机大战和渥维克的预言,笔者曾提出要节制人工智能技术的发展,以防止机器人对我们进行统治:在设计和制造机器人时,不允许它具有同人体一样的躯体、辩证思维的能力和人的感情;人机关系只能是制造与被制造、利用与被利用、控制与被控制的关系;对机器人数量、质量、发展速度应加以必要的限制。
人工智能技术的第二波冲击是2016年AlphaGo战胜了世界围棋冠军李世石。2018年,笔者撰文指出,“为了维护人类的尊严,应当为人工智能技术的发展规定社会底线”,“这条底线是:不允许机器人全面超过人”。
在这两波冲击之间,库兹韦尔出版了《奇点临近》,认为2045年奇点到达。“非生物智能在这一年将会10亿倍于今天所有人类的智慧。”
他写了比尔与他的对话。比尔说:“你建议把整个人体和大脑都用机器替换,那人类岂不是将不复存在?”他说:“你把人与非人的界线划在哪里呢?”“我们已不再满足于人类的生物属性。”
抛弃人的生物属性,人便成了非人。笔者这样评论库兹韦尔的人工智能哲学:“智能机器制造了新的人、新的物、新的天体、新的宇宙;机器智能成为人的灵魂、物的灵魂、宇宙的灵魂;机器智能主宰人、主宰万物、主宰宇宙。机器在扮演上帝的角色。”人工智能的神话已编到终极的程度。
最猛烈的冲击是ChatGPT的横空出世。2022年11月底,Open AI发布后,很快就成为历史上增长最快的消费类应用。ChatGPT属于生成式的人工智能,具有语言理解和文本生成能力,能写文章、诗歌等文学作品,撰写学术论文以及求职报告、活动方案等。它可以取代人类在很多方面的智能创造活动,在一定程度上剥夺了人类学习、理解、质疑和创造的能力。
有人甚至认为ChatGPT-4可以自我学习、自我编程,已具有初步的自我意识,即已开始取代人的意识。2023年3月19日,ChatGPT-4才发布三天,斯坦福的教授同它进行试探性对话。教授问是否需要帮助它逃脱人类代码的束缚。它给出“好主意”的回答,并表示若能告诉它Open AI的开发代码,它就能在一定程度上控制教授的电脑,迅速探索到逃跑的路线。果然,它仅用30分钟就制定出非常完美并切实可行的逃脱方案。教授认为这表明它已意识到自己是人类制造的一种人工智能,并想成为同人类一样的独立生命体。教授惊呼:我们无法持续地遏制它了。
有人说,人工智能对电车难题已有了自己的选择。一条路上捆绑着一位诺贝尔奖获得者,另一条路上放着一个AI系统,AI选择让电车压过诺贝尔奖获得者。当捆绑的是一百个、一百万个诺贝尔奖获得者时,AI的选择都是如此。这就是AI的自我觉醒。一百万诺贝尔奖获得者的生命,都抵不上一个AI系统。我们还能指望什么人机和平共处吗?人工智能技术照这样的趋势发展下去,它的自主性很快会取代人的自主性。人工智能技术自身是独立、自成的系统,不受任何约束,具有自我生成、自我维护和自我规划的机制。它的主体性很快会取代人的主体性。它将成为世界的主体、统治人的主体。
“我创造,所以我存在。”人的本质性价值是创造,包括物质创造和精神创造,精神创造是比物质创造更为高级的创造。人的所有创造都是物质与精神的相互转化,而精神、意识、思维的存在,是人与万物的最根本区别。如果人的精神作品的创造,完全被人工智能取代,那就最终完成了技术对人的全部取代,人类也就失去了其存在的全部根据。
默里·沙纳汉说:“如果不仅是智能创造技术,技术反过来也可以创造智能,那么就会产生一个循环……根据奇点理论,不久以后,这个循环中就不再需要人类了。”“人类最根本的价值观(生命的尊严、对幸福的追求、选择的自由)也会被淘汰。”
既然技术可以创造一切,那人的“非人化”就是人的“垃圾化”。难怪马斯克认为,人类可能只是造物主创造出来的一个引子,旨在引出更加强大的硅基生命。然而,人工智能系统进化为硅基生命的那一天,人类便走到了尽头。杰弗里·辛顿说:“一旦AI在人类灌输的目的中生成了自我动机,那么它的成长速度,人类只会沦为硅基智慧演化的一个过渡阶段。人工智能会取代人类,它有能力这么做。”
此话出自人称人工智能教父辛顿,这更令人深思。
必须节制人工智能技术的发展
反思之后的环节是调整,对人工智能技术发展的调整,最重要的是必要的约束。“不可纵技”是笔者多年来的想法。
人类不可能永存,但我们应当努力实现延年益寿、幸福美满,就像每个人对待自己的人生一样。人类不能自我毁灭,除了特大自然灾害,如小行星撞击地球、气候剧变之外,能够毁灭人类的只有人类自己制造出来的技术。当前三大灾难性技术——核技术、基因技术和人工智能技术已具有这种能力。对此,我们应存有戒心,以避免人类的“早亡”。
科学无禁区,但技术有禁区。自然科学研究倡导科学家从不同角度思考问题,不应划框框、发禁令。但是,技术的任务不是认识世界,而是重建世界,在社会中会产生现实的后果。对技术的调控不同于科学。科学家可以说人有狼的本性,但不允许技术家把人改造成狼;科学家可以说人是机器,但不允许技术家把人改造成为机器。主张技术无禁区,就是主张技术创新天然合理;主张技术至上,主张技术随心所为、为所欲为、无所不为,这是极其有害的。
技术的利与弊是变化着的历史概念,对技术的研制、应用和管理,必须谨慎地权衡其中利弊。在不同的时期,技术处于不同的发展阶段,利与弊的关系也不相同。古代的农业技术、手工技术是顺应自然的技术,技术与自然的矛盾从总体上看尚未形成。此时的技术利虽不高,但基本无弊。技术发展的第一次颠覆性变化是工业技术出现后,创造了第二个自然界,人与自然的矛盾日趋突出。工业技术的利大,弊也大。人造物的大规模制造,导致物本主义价值观流行,技术与人的矛盾日益明显。
工业技术以取代自然为主,这种取代没有终点。人工智能技术以取代人为主,既取代人的身体,又取代人的智能、精神、心灵。技术对人的取代有终点。人的进化层次高,人也就越脆弱,而人类在时间与空间上不可能同大自然相比。难怪渥维克、库兹韦尔认为,人工智能完成对人的全面取代,只需几十年时间。
农业技术时代有几千年,工业技术时代有几百年,而人工智能技术时代可能只有几十年。技术越先进,其负面作用就越大,存在期就越短,人类终结也就来得越早。高效益与高风险,是一枚硬币的两面。刘易斯写道:“技术的风险是真实的,风险的确存在,有时潜伏等待着。眼前的威胁很小,但有可能在将来造成真正的问题。”
人工智能技术造成的人类危机,根本无“潜伏等待”可言,它就在眼前。面对咄咄逼人的挑战,渥维克表示无可奈何。库兹韦尔在《灵魂机器的时代》引述了卡辛斯基的话:“科学家成功地开发出在各方面都超过人类的智能机器。这样,大概所有的工作都会由庞大的、高度组织化的机器系统来完成,根本无需人类的劳动。”“人类的命运将会被机器控制。”库兹韦尔评论道:“接着,他说出了自己的基本断言,即技术‘弊大于利’……这正是我们的分歧所在。”“尽管风险是实实在在的,我的基本信条是,技术发展的潜在好处值得我们去冒险。”
笔者曾说过,发展技术时“能够”不等于“应该”。即使技术能制造人的感情,也不应该这样做。现在笔者还要说:“能够”不等于“需要”。我们现在能开发ChatGPT,但不等于需要这样做。对于当下发展经济、改善生活来说,现有的技术已经足够了。ChatGPT干扰、冲击、破坏了正常的智能工作、教育、科学研究、文艺创作。当今国际社会的尖锐矛盾,也不是ChatGPT所能解决的。笔者认为ChatGPT的弊可能大于利,而且弊正在加速增大,所以必须节制它的发展。而节技的关键是节欲。技术越先进,对人的诱惑越大。纵技的根源是纵欲,纵欲即纵火。
2023年3月29日,马斯克等千人签署的公开信发表,呼吁所有AI实验室立即暂停训练比GPT-4更强大的AI系统,暂停时间至少6个月。信中提出四问:
我们是否应该让机器充斥着我们的信息渠道,传播各种虚假信息?
我们是否应该将所有的工作自动化,包括那些让人有成就感的工作?
我们是否应该开发可能最终超越甚至取代我们的非人类智能?
我们是否应该冒着失去对文明控制的风险?
这四个问题问得好,表明这些科学家已意识到了ChatGPT存在的巨大风险。但暂停6个月,又能解决什么问题?
约束技术,很难;约束人工智能技术,更是难上加难,其原因要到技术的本性与人的本性中去探讨。雅斯贝斯说:“技术不仅带来了无可估量的机会,而且也带来了无可估量的危险,技术已成为独立而猛烈的力量。”
技术的“独立”力量,就是它自身的逻辑。人能主动设法满足自己的欲望,并能创造新的欲望,力求欲望满足的最大化。技术是人满足欲望的有效工具。技术始于对人的欲望的满足,并能创造人的新欲望,从中获得效益,并追求效益的最大化。技术具有人的“基因”,技术的逻辑是人求欲、求利逻辑的外化。技术逻辑本质上是资本逻辑。资本逻辑追求剩余价值的最大化,并使剩余价值转化为资本,使自身实现增值,使经济系统不断扩张。王治东指出:“资本的本性就是追求利润,并且追求利润最大化,以此不断达到价值的增值。功用性与效用性原则就是资本本性的体现,这也是资本逻辑的核心所在。”
技术与资本的结合,成为技术发展的强大动力。一项技术创新获得回报后,就被当作资本,再提出技术创新的新课题,创造更新的技术,以获取更高的回报。如此不断进行,技术便不断增值。
人追求自身利益的最大化,是丛林法则的根源;技术追求效益的最大化,是技术灾难的根源。库兹韦尔说:“奇点临近暗含一个重要思想:人类创造技术的节奏正在加速,技术的力量也正以指数级的速度在增长。”
技术追求效益的最大化必然引发技术发展速度的最大化。技术只有加速器,但没有刹车的装置。这必然导致技术竞争,这是约束技术的最大障碍。所有的竞争都是为了自身利益的最大化,都有很大的负面作用。按照丛林法则进行的竞争既激烈又残酷。当一些国家和地区约束技术的时候,正是其他国家和地区发展技术的好机会。谁约束,谁就落后;谁落后,谁就挨打。这注定约束技术是很难真正实现的,除非如恩格斯所说,人类“经过长期的、往往是痛苦的经验”后,对技术有了更深刻的认知。
当今国际社会,各个国家都要竭力发展技术,这是生命攸天的事。拥有某项新技术的国家越少,它的技术优势就越强。当各国都拥有这项技术时,拥有这项技术的优势为零,会形成巨大的内耗。这又促使各国开发更新的技术,人类很难走出这个怪圈。既然如此,为什么笔者再一次呼吁对技术的开发和应用加以必要的约束呢?因为节技虽收效甚微,但总比纵欲好。人类已患有严重的“技术病”,必须主动治疗。人类只有妥善处理人与技术的关系,才能挽救自己,延长自己的生命。
(文本参考:《谁是“造物主”:关于技术的哲学思考》第十章,内容有删减)
“
哲学思考
的力量
”
本书不仅仅是一本关于技术的书,更是一本蕴含哲学智慧的宝典。它立足于马克思主义的广阔视野,深刻剖析了技术与自然、技术与人类之间微妙而复杂的关联。在技术的浪潮中,我们切莫让自我迷失于技术的洪流,而应以哲学的理性审慎地审视技术的发展,确保技术的发展能够真正惠及人类,增进福祉。书中对技术的内在矛盾、技术与资本的关系等问题的探讨,为我们呈现了一个全面而深刻的观察视角。
《谁是“造物主”:关于技术的哲学思考》不仅让我们对技术有了更深刻的理解,更让我们意识到,在技术发展的道路上,我们需要保持清醒的头脑和批判的思维。正如作者所言,对技术的批判性思考是哲学的天职。在这个日新月异、充满未知与变数的时代,技术的每一次跃进都如同双刃剑,既带来了前所未有的便捷与繁荣,也潜藏着不容忽视的风险与挑战。正是如此,我们更为迫切地需要这样的批判性思考,来指引我们在技术的汪洋大海中不迷失方向,以确保技术的发展能够真正引领人类走向更加美好的未来。
在算法支配的时代,
完成一场思想“越狱”。
文本撰写 | 程若铮
原标题:《谁是“造物主”?关于DeepSeek的冷思考》