人工智能:如何握好这把“双刃剑”
人工智能的“双面性”
人工智能正深刻改变世界,它如同一把“双刃剑”,既带来巨大机遇,也引发诸多挑战。在医疗、教育、交通等领域,人工智能提升了效率,改善了生活质量;然而,它也可能冲击就业、侵犯隐私、引发算法偏见等。同时,强调价值对齐、能够自主定义并完成无限任务的通用人工智能,更是新质生产力的典型代表,已经成为全球科技战略制高点。但由于大模型等人工智能技术具有“黑箱属性”,其决策行为不能被完全透明解释,生成内容也不能被完全预判控制,应用部署时可能出现偏离人类预期甚至危害国家安全和人类整体利益的巨大风险。
面临的风险
国家层面
技术安全与自主创新的国际挑战:大模型的算力、算法与数据,构成新型国家战略资源,其自主可控性直接关乎国家主权安全。目前,全球算力中心依然集中于少数欧美科技巨头,英伟达的人工智能芯片占据了超过80%国际市场份额。2025年1月底,美国国会首次提交了中美人工智能“脱钩”的法案,一旦通过,两国所有人工智能的合作渠道将被截断。
意识形态与价值伦理的隐性危机:大模型本身没有价值认知功能,但开发者的价值观会渗透到输出文本,构成意识形态安全威胁。如一些欧美研发的大模型,生成内容延续欧美影视文化倾向,无法识别和“理解”非洲文化造型。此外,质量参差不齐的国内自媒体信息、不当抓取的境外网页错误信息、未经审核的合成数据,可能“毒化”AI大模型训练过程,导致输出内容价值观偏差。随着大模型广泛应用,若任由不可控的“黑箱”发展,将难以控制人工智能价值体系与人类一致,造成较大社会伦理风险。
制度监管滞后与信息不对称的结构性困境:世界各国虽已针对人工智能安全风险出台相关法案,但法律法规制定完善流程漫长复杂,往往滞后于人工智能新产品发布更新速度。各国人工智能发展水平与应用程度不同,政府、企业、高校科研机构、社会大众对人工智能技术认知存在信息差,导致国与国之间、社会各行各业之间的人工智能治理措施出现大量无效重合和高度冲突。这种信息不对称和统一标准缺失,对外易引发国际合作争端,对内会造成人工智能监管“真空地带”,增加制度叠加冗余和推行成本。
社会和个人层面
社会重新分配,劳动秩序重构:“人工智能+”的落地应用可能引发“创造性破坏”,即“人工智能代替人类”,普通劳动者就业机会被剥夺。国际货币基金组织报告称,人工智能预计将对全球近40%的工作岗位产生影响,创造性和技术需求较低工作的从业者面临失业或转型危机,社会劳动分工结构将经历“大洗牌”。
难辨真假的“网络垃圾”混淆视听:对于自然科学、金融、医学等特定领域的专业问题,诸多大模型没有经过大规模专业语料训练,可能会“胡编乱造”,制造“模型幻觉”。
过度使用诱发心理依赖:经过特定算法和数据库训练的大模型,能根据用户指示扮演符合情感需求的虚拟角色进行交流。若用户过度沉迷,忽略现实交际,可能因身心空虚导致极端性后果,因为算法不透明性和“黑箱”操控机制形成了信息的“茧房”,
导致认知和学习能力下降:过分依赖人工智能进行思考会导致认知和学习能力下降,如抖音海外版顾问格雷格·伊森伯格提到的一名斯坦福大学毕业生,因过度使用ChatGPT,在交谈中出现思维中断、言语迟滞的迹象。
应对建议
国家层面
加强技术自主创新:加大对人工智能核心技术研发的投入,减少对国外技术和产品的依赖,提升我国在人工智能领域的自主可控能力,保障国家主权安全。
强化意识形态引导:在人工智能研发和应用过程中,注重价值观的引导和融入,加强对训练数据的审核和管理,避免不良信息“毒化”模型,确保人工智能输出内容符合主流价值观。
完善制度监管体系:加快人工智能相关法律法规的制定和完善,建立健全统一的监管标准和规范,加强政府、企业、高校科研机构、社会大众之间的信息沟通和共享,减少信息不对称和治理措施的冲突。
社会和个人层面
加强职业培训:针对可能受人工智能影响的职业,开展相关技能培训和转型指导,帮助劳动者提升自身能力,适应新的就业需求。
提高信息辨别能力:加强对公众的教育,提高公众对人工智能生成内容的辨别能力,避免被虚假信息误导。
合理使用人工智能:倡导合理使用人工智能,避免过度依赖,保持现实交际和自主思考能力,防止认知和学习能力下降。