切换到宽版
  • 111阅读
  • 2回复

[智能应用]人工智能:如何握好这把“双刃剑”[3P] [复制链接]

上一主题 下一主题
在线huozm32831

UID: 329002

精华: 1097
职务: 超级斑竹
级别: 玉清道君
 

发帖
109083
金币
5495
道行
19523
原创
29308
奖券
17670
斑龄
195
道券
10541
获奖
0
座驾
 设备
EOS—7D
 摄影级
专家级认证
在线时间: 21416(小时)
注册时间: 2007-11-29
最后登录: 2025-04-21








  人工智能正深刻改变世界。但它如一把“双刃剑”,既带来巨大机遇,也引发诸多挑战——在医疗、教育、交通等领域,人工智能提升了效率,改善了生活质量;然而,它也可能冲击就业、侵犯隐私、引发算法偏见等。如何握好这把“双刃剑”,让人工智能真正成为推动人类进步的力量。
  当下的选择决定未来的走向。本期我们邀请两位专家,共同探讨如何避免风险,引导技术向善。
  人工智能技术无疑是新一轮科技革命和产业变革的先导。其中,强调价值对齐、能够自主定义并完成无限任务的通用人工智能,更是新质生产力的典型代表,已经成为全球科技战略制高点。但另一方面,由于大模型等人工智能技术具有“黑箱属性”,导致其决策行为不能被完全透明解释,它的生成内容也不能被完全预判控制,当这样的人工智能技术应用部署在国家社会经济生活中的方方面面时,就可能会出现偏离人类预期甚至危害国家安全和人类整体利益的巨大风险。
1、在国家层面,人工智能技术正在重构国家安全治理的格局
  我国已将人工智能安全纳入国家战略,并上升至总体国家安全观的重要组成部分。这是因为,人工智能技术的迅猛发展正在重构国家安全治理的格局,其中部分风险突破了传统技术伦理范畴,形成系统性、多维度的威胁。
  以当下热度最高的生成式大模型为例,我们可以关注到这三类安全危机:
  首先,是技术安全与自主创新的国际挑战。大模型的算力、算法与数据,构成新型国家战略资源,其自主可控性直接关乎国家主权安全。目前,全球算力中心依然集中于少数欧美科技巨头,英伟达的人工智能芯片占据了超过80%国际市场份额。而就在今年1月底,美国国会首次提交了中美人工智能“脱钩”的法案,一旦该法案通过,两国所有人工智能的合作渠道将被截断。
  其次,意识形态与价值伦理的隐性危机。大模型没有价值认知的功能,但开发者的价值观可以渗透到大模型对外输出的文本,构成意识形态方面的安全威胁。比如,一些欧美研发的大模型,其生成的视频、图像表达延续欧美影视文化倾向,以西方艺术审美为主体,却无法识别和“理解”达喀尔建筑等非洲文化造型。众多案例表明,欧美大模型所蕴含的西方中心主义价值观值得我们提高警惕。此外,质量参差不齐的国内自媒体信息、不当抓取的境外网页错误信息、由大模型生成的未经审核的合成数据,都可能会“毒化”AI大模型的训练过程,进而导致输出内容价值观的偏差。繁杂的世界观、人生观、价值观数据弥漫在大模型神经网络的“黑箱”中,导致我们很难分辨出大模型的某些反社会回答(例如“毁灭人类”)究竟是出自语料库,还是根据模型的行为范式学习推理而来。随着大模型广泛应用到各行各业,倘若任由这种不可控的“黑箱”发展下去,我们将很难控制人工智能的价值体系与人类相一致,会造成较大的社会伦理风险。
  再次,制度监管滞后与信息不对称的结构性困境。尽管世界各国已针对人工智能技术带来的安全风险纷纷出台相关法案,但这些法律法规的制定完善一般需要漫长复杂的流程,往往滞后于人工智能新产品的发布更新速度。各国人工智能的发展水平与应用程度不同,政府、企业、高校科研机构、社会大众对动态更新发展的人工智能技术的认知存在不小的信息差,导致国与国之间、社会各行各业之间推出的人工智能治理措施出现大量无效重合和高度冲突。这类信息不对称和统一标准的缺失,对外易制造国际人工智能安全治理的合作争端,对内会使得人工智能监管出现“真空地带”,造成制度叠加的冗余和推行成本的增长。
2、在社会和个人层面,滥用人工智能技术可能带来劳动秩序重构、混淆视听、诱发心理依赖、认知和学习能力下降等问题
  在社会和个人层面,除了侵犯个人隐私、引发版权纠纷等,滥用人工智能还会造成不少问题:
  社会重新分配,劳动秩序重构。“人工智能+”的落地应用可能会引起“创造性破坏”,也就是普遍担忧的“人工智能代替人类”——普通劳动者的就业机会被人工智能剥夺。国际货币基金组织发布报告称,人工智能预计将对全球近40%的工作岗位产生影响。创造性和技术需求较低工作的从业者都将面临失业或转型的危机,社会劳动分工的结构将经历一场“大洗牌”。
  难辨真假的“网络垃圾”在信息渠道混淆视听。对于自然科学、金融、医学等特定领域的专业问题,诸多大模型没有经过大规模专业语料训练,可能会一本正经“胡编乱造”,制造“模型幻觉”。在缺乏必要监管机制的当下,由大模型生成的大量未经辨认审核的文本与图片流入互联网,在稀释真实信息的同时,还容易让不具备专业知识的大众信以为真。
  过度使用人工智能“角色扮演”功能易诱发心理依赖。经过特定算法和数据库训练的大模型,能够根据用户的指示扮演符合用户情感需求的虚拟角色,与用户交流。如果用户过度沉迷其中、忽略现实交际,则有可能因身心空虚导致极端性后果。这是因为算法不透明性和“黑箱”操控机制形成了信息的“茧房”,使用者被困于AI挑选和过滤后的“信息泡泡”中。算法通过分析我们的信息偏好,利用人类易产生恐惧焦虑的心理机制、利用青少年心智不完全成熟和对某些信息的猎奇心,不断投喂和推荐某类特定信息,加强固有的缺陷和偏好,让人们身陷其中无法自拔,严重时可导致AI成瘾效应。
  过分依赖人工智能进行思考会导致认知和学习能力下降。抖音海外版顾问格雷格·伊森伯格曾提到一名斯坦福大学毕业生,因过度使用ChatGPT,在交谈中经常出现思维中断、言语迟滞的迹象。当认知过程被长期“外包”给人工智能,无论多么优秀的大脑,思考和学习功能都会“用进废退”。不假思索地全盘接受AI生成的“投喂式”内容,会导致本应在教育过程中塑造并形成的信息收集、筛选、处理、应用、创造的批判性思维、逻辑性思维、创新性思维能力的严重退化。
3、构建人工智能安全治理框架,不仅要涵盖现实中出现的问题,还应从根源入手,避免“头痛医头、脚痛医脚”
  面对人工智能这把“双刃剑”,我们亟须构建完备的人工智能安全治理体系。它不仅要涵盖现实中的问题,还应基于系统化、综合化的人工智能理论,从问题的根源入手,避免“头痛医头、脚痛医脚”的片面化处理。
  加强价值对齐,制定人工智能评级标准。造成人工智能引发的意识形态、价值伦理、信息混乱等问题的根本原因,是生成式大模型缺乏明确的认知架构和价值体系,只能按照人类设定的程序,机械地对问题做出反馈,没能做到与人类价值对齐。为此,需要一套结合人类价值体系和认知架构的人工智能评级标准,作为评定和开发人工智能的科学标尺,辅助科学家打造更加符合人类需求、更加安全的人工智能。
  改进技术,设置防沉迷预警。不仅需要从外部对人工智能设置评级标准,也要从人工智能内部进行分级改造。使用人工智能的社会群体千差万别、需求各有侧重,需要防范的风险也各异。以青少年群体为例,我们应该着重研发辅助课堂学习、引导兴趣爱好的人工智能,让其成为有利于青少年成长的助手与“伙伴”。同时,为防止青少年过度沉迷,应在系统中编入使用时长、特定功能分区的限制,并出具生动详细的使用教程和预警声明,保障青少年的身心健康。
  预测就业替代风险,加强人工智能职业培训。如何避免人工智能替代人类,不仅需要劳动者个人顺应时代风向、积极主动实现自我提升,还需要政府部门和企事业单位制定保护劳动者、协调人机关系的就业保障机制。在部署“人工智能+”行动时,可以要求企业在应用人工智能的同时,在算法中预置就业考量,实现向善的人工智能伦理规则。企业则应做好就业伦理合规,不应追求用技术完全替代人,而是追求如何用技术赋能生产效率、优化体验。此外,在进行就业前置性布局的时候,也应当为可能被替代职业或工种的从业者安排相关的技能培训,增加他们在新环境下的就业机会。
  构建平等开放的国际人工智能安全秩序。防范人工智能安全风险是全世界共同面临的课题,并不是某一国、某一地区的特权或义务。目前,发达国家总体上掌握着比发展中国家更先进的人工智能技术,后者往往因此失去了在国际舞台上的话语权,并缺乏防范和化解人工智能风险的意识。
  需要强调的是,理解与防范人工智能安全风险的目的,并不是要让大家畏惧、否定科技的进步,而是希望大家具备理性审视和应对潜在风险的能力,学会在人工智能的浪潮中保持清醒的头脑,掌握驾驭人工智能的主动权。让我们在享受智能时代红利的同时,确保自身和社会的安全稳定,实现科技向善、人机和谐共生的美好愿景!
山庄提示: 道行不够,道券不够?---☆点此充值☆
 
  




    
在线姜谷粉丝

UID: 1569053

精华: 2
级别: 玉清道君

发帖
129309
金币
126855
道行
20023
原创
757
奖券
68
斑龄
0
道券
0
获奖
0
座驾
设备
摄影级
在线时间: 13958(小时)
注册时间: 2012-06-21
最后登录: 2025-04-22
只看该作者 沙发  发表于: 04-18
人工智能:如何握好这把“双刃剑”
人工智能的“双面性”
人工智能正深刻改变世界,它如同一把“双刃剑”,既带来巨大机遇,也引发诸多挑战。在医疗、教育、交通等领域,人工智能提升了效率,改善了生活质量;然而,它也可能冲击就业、侵犯隐私、引发算法偏见等。同时,强调价值对齐、能够自主定义并完成无限任务的通用人工智能,更是新质生产力的典型代表,已经成为全球科技战略制高点。但由于大模型等人工智能技术具有“黑箱属性”,其决策行为不能被完全透明解释,生成内容也不能被完全预判控制,应用部署时可能出现偏离人类预期甚至危害国家安全和人类整体利益的巨大风险。

面临的风险
国家层面
技术安全与自主创新的国际挑战:大模型的算力、算法与数据,构成新型国家战略资源,其自主可控性直接关乎国家主权安全。目前,全球算力中心依然集中于少数欧美科技巨头,英伟达的人工智能芯片占据了超过80%国际市场份额。2025年1月底,美国国会首次提交了中美人工智能“脱钩”的法案,一旦通过,两国所有人工智能的合作渠道将被截断。
意识形态与价值伦理的隐性危机:大模型本身没有价值认知功能,但开发者的价值观会渗透到输出文本,构成意识形态安全威胁。如一些欧美研发的大模型,生成内容延续欧美影视文化倾向,无法识别和“理解”非洲文化造型。此外,质量参差不齐的国内自媒体信息、不当抓取的境外网页错误信息、未经审核的合成数据,可能“毒化”AI大模型训练过程,导致输出内容价值观偏差。随着大模型广泛应用,若任由不可控的“黑箱”发展,将难以控制人工智能价值体系与人类一致,造成较大社会伦理风险。
制度监管滞后与信息不对称的结构性困境:世界各国虽已针对人工智能安全风险出台相关法案,但法律法规制定完善流程漫长复杂,往往滞后于人工智能新产品发布更新速度。各国人工智能发展水平与应用程度不同,政府、企业、高校科研机构、社会大众对人工智能技术认知存在信息差,导致国与国之间、社会各行各业之间的人工智能治理措施出现大量无效重合和高度冲突。这种信息不对称和统一标准缺失,对外易引发国际合作争端,对内会造成人工智能监管“真空地带”,增加制度叠加冗余和推行成本。
社会和个人层面
社会重新分配,劳动秩序重构:“人工智能+”的落地应用可能引发“创造性破坏”,即“人工智能代替人类”,普通劳动者就业机会被剥夺。国际货币基金组织报告称,人工智能预计将对全球近40%的工作岗位产生影响,创造性和技术需求较低工作的从业者面临失业或转型危机,社会劳动分工结构将经历“大洗牌”。
难辨真假的“网络垃圾”混淆视听:对于自然科学、金融、医学等特定领域的专业问题,诸多大模型没有经过大规模专业语料训练,可能会“胡编乱造”,制造“模型幻觉”。
过度使用诱发心理依赖:经过特定算法和数据库训练的大模型,能根据用户指示扮演符合情感需求的虚拟角色进行交流。若用户过度沉迷,忽略现实交际,可能因身心空虚导致极端性后果,因为算法不透明性和“黑箱”操控机制形成了信息的“茧房”,
导致认知和学习能力下降:过分依赖人工智能进行思考会导致认知和学习能力下降,如抖音海外版顾问格雷格·伊森伯格提到的一名斯坦福大学毕业生,因过度使用ChatGPT,在交谈中出现思维中断、言语迟滞的迹象。
应对建议
国家层面
加强技术自主创新:加大对人工智能核心技术研发的投入,减少对国外技术和产品的依赖,提升我国在人工智能领域的自主可控能力,保障国家主权安全。
强化意识形态引导:在人工智能研发和应用过程中,注重价值观的引导和融入,加强对训练数据的审核和管理,避免不良信息“毒化”模型,确保人工智能输出内容符合主流价值观。
完善制度监管体系:加快人工智能相关法律法规的制定和完善,建立健全统一的监管标准和规范,加强政府、企业、高校科研机构、社会大众之间的信息沟通和共享,减少信息不对称和治理措施的冲突。
社会和个人层面
加强职业培训:针对可能受人工智能影响的职业,开展相关技能培训和转型指导,帮助劳动者提升自身能力,适应新的就业需求。
提高信息辨别能力:加强对公众的教育,提高公众对人工智能生成内容的辨别能力,避免被虚假信息误导。
合理使用人工智能:倡导合理使用人工智能,避免过度依赖,保持现实交际和自主思考能力,防止认知和学习能力下降。


如何不发帖就快速得到金币道行
 
我有我可以
在线jjybzxw

UID: 551814


发帖
145429
金币
95297
道行
1988
原创
2393
奖券
2610
斑龄
33
道券
936
获奖
0
座驾
设备
摄影级
在线时间: 33896(小时)
注册时间: 2008-10-01
最后登录: 2025-04-22
只看该作者 板凳  发表于: 04-18
人工智能的发展确实带来了巨大的机遇和挑战。为了确保人工智能成为推动人类进步的力量,我们需要在多个层面上进行努力:

1. 国家层面:我国已将人工智能安全纳入国家战略,并强调其在总体国家安全中的重要性。这意味着我们需要关注技术安全与自主创新的国际挑战,意识形态与价值伦理的隐性危机,以及制度监管滞后与信息不对称的结构性困境。为此,我们可以加强自主研发,减少对外部技术的依赖,同时建立和完善相关的法律法规,以应对人工智能带来的新挑战。

2. 社会和个人层面:人工智能的应用可能导致劳动秩序重构、信息混淆、心理依赖和认知学习能力下降等问题。因此,我们需要预测就业替代风险,并加强职业培训,帮助劳动者适应新的工作环境。同时,我们也需要提高公众对人工智能的认识,增强他们识别和处理信息的能力,减少对人工智能的过度依赖。

3. 构建人工智能安全治理框架:我们需要建立一个全面的治理体系,不仅解决当前的问题,还要从根源上避免问题的发生。这包括加强价值对齐,制定人工智能评级标准,改进技术,设置防沉迷预警,以及预测就业替代风险,加强人工智能职业培训。

4. 国际合作:构建平等开放的国际人工智能安全秩序是全球共同面临的课题。发达国家和发展中国家应共同努力,共享技术进步的成果,并共同防范和化解人工智能风险。

总之,我们需要在享受人工智能带来的便利的同时,保持清醒的头脑,掌握驾驭人工智能的主动权,确保科技向善、人机和谐共生。
如何不发帖就快速得到金币道行
 
快速回复
限120 字节
认真回复加分,灌水扣分~
 
上一个 下一个