当前位置:

破解AI过度依赖,打破存在焦虑

来源:新湘评论 作者:宋春艳 夏昕 编辑:黄瑞婷 2025-06-03 16:43:22
时刻新闻
—分享—

当前,以生成式大模型为代表的新一代人工智能正多维度重塑社会运行逻辑。从医疗诊断到金融决策,从艺术创作到社交互动,AI的赋能效应显著提升了效率与便利性。然而,AI技术的“双刃剑”效应日渐凸显:过度依赖AI导致个体能力退化、职业焦虑加剧、情感联结弱化,甚至引发人类对自我价值的怀疑。如何平衡AI依赖与维护人的主体性和存在感,记者对湖南省社科院(省人民政府发展研究中心)研究员、博士宋春艳进行了访谈。

记者:著名伦理学家麦金太尔提出,人是“依赖性的理性动物”,一个人只有依赖他人,才能在一定程度上克服自己的脆弱性和无能性,实现个体作为人类成员的“兴盛”。目前人类对AI的依赖日益加重,以致引发了群体焦虑。您觉得过度依赖AI有哪些弊端?

宋春艳:过度依赖AI的弊端突出表现在三个方面:一是个体认知能力的系统性退化。AI辅助决策和高度自动化运行可能削弱部分人群的独立思考能力和操作性技能。神经科学研究表明,长期依赖外部智能设备可能降低大脑前额叶皮层的活跃度,这将导致个人注意力、情感体验能力、情绪表达能力严重退化。二是职业的技能贬值与动态适应困难。AI自动化技术对传统岗位的替代效应日益显著,部分从业者面临技能贬值风险,职业安全感被“AI替代”的阴影笼罩。更深远的影响还在于,AI的快速迭代使终身学习压力剧增,而人类的学习速度难以匹配AI及赋能的千行百业的快速升级和变革,进一步加剧职业前景的不确定性。三是社交与情感的异化。虚拟社交工具尤其是AI聊天机器人的普及导致现实人际互动频率下降,人们通过AI获得了“远方”,但却失去了“附近”,陷入了孤独的自由里。

记者:中庸之道是中国传统文化中的重要哲学思想,其核心理念就是不偏不倚,守中适度。心理学也认为,适度的依赖是人际健康关系的一部分。那么,怎样破解人类对AI的过度依赖,最大程度避免人工智能技术带来的“陷阱”呢?

宋春艳:人类在使用AI时应加强反思和批判,重建人的主体性。麦金太尔的“依赖性理性动物”理论为破除AI依赖提供了伦理指南:人类需借助工具来增强自己,但增强不是替代,尤其是需要警惕AI反噬人的主体性。中国传统文化中的“中庸”智慧可转化为实践原则:以人为核心,AI为辅助。人的主体性一般在反思和决策中体现,因此人在智能时代应主动掌握反思与决策权。作为人工智能的创造者,人类唯有通过持续保持批判性反思和创造性实践,才能最大程度避免人工智能技术带来的“陷阱”。

记者:是否可从增加现实情感体验和实践机会,激活人类独特优势方面,进一步破解人类对AI过度依赖?

宋春艳:是的。无论AI现在功能多么强大,都没有真正的情感体验能力。情感体验能力是人类独特的优势,也是应对AI过度依赖的关键要素,因此应积极推动“体验式”活动以对抗虚拟化依赖。在运用AI进行协同性的创意工作时,尽量应用AI为人提供服务,而不是直接提供产品。工程师应加强对自动化与用户互动的均衡设计,促进产品与用户之间的情感连接,增加用户的参与感与责任感。

记者:德国哲学家安德斯曾经感叹,人类“在自己创造的产品的质量面前感到一种自叹不如的羞愧”,将成为“过时的人”。如何通过教育与社会支持系统协同升级,促进人机协同进化?

宋春艳:AI是人类创造的高级人工制品,因此它的发展必须以人类价值为导向,帮助人类增强自身,使得人的演化能够与人工智能的演化协同推进。人机协同演化才能使人机共生的世界成为最大可能的美好世界。这是因为,AI的硬件和软件在人的设计和控制下不断升级,更加“酷似”或者“超越”人的某些智能,甚至进化的速度较之以前更快。相比较而言,人的进化远远慢于这个进程。为走出这种困境,泰格马克提出一种新的解决方案,在生命3.0时期,人可以设计自身的软件和硬件,逐步脱离进化的束缚。也就是说,借助于相关会聚技术,人的硬件(如器官)、软件(如认知能力)都可以不同程度地得到替换和升级。这正是人机融合的魅力所在。为了实现人机协同进化的目标,教育与社会支持系统应协同升级。在学校层面,建议开设AI原理和伦理课程,教授技术原理与局限性。从社会层面,完善职业转型支持体系,再比如通过政府开展免费AI技能培训,帮助失业者掌握与AI协同工作的技能。

记者:算法推荐诱导用户上瘾,是造成AI过度依赖的重要技术因素。如何加强算法推荐监管,构建人机共治的责任网络?

宋春艳:对算法推荐进行合规监管,能有效降低用户对AI过度依赖。应通过法律法规明确使用者和平台法律责任,从制度层面防止AI使用者和生产者责任推诿。具体举措包括建立算法监督与问责机制,如引入第三方监管机构对平台企业算法进行伦理审查;要求平台嵌入日志功能记录决策过程,便于事后审查。我国《互联网信息服务算法推荐管理规定》要求平台提供关闭个性化推荐选项,这一创新举措赢得国际社会高度认可。这类法规有助于提升算法透明度,助力用户了解算法推荐逻辑,从而对算法推荐内容保持批判性态度,而非盲目接受,进一步减少AI过度依赖。同时也要进一步转变技术设计价值理念,加强AI产品价值敏感设计,以免人工智能产品身披“客观”算法外衣,实则被资本掌控。尤其要强化设计师责任,通过“价值敏感设计”将伦理内容工程化,使得开发者在产品原型阶段就将隐私保护、决策自主性等人类核心需求纳入其中。

记者:如此说来,走向人机共生的“适度依赖”未来可期。

宋春艳:AI依赖危机的本质是人类对自身主体性的迷失。破解焦虑并非否定技术,而是通过哲学反思、能力重塑、制度设计等措施重建人机平衡。历史表明,印刷术、工业革命等技术革命均伴随短期阵痛,但最终通过社会调适实现文明跃迁。在AI时代,人类需以“适度依赖”为原则,将技术嵌入“人本主义”框架——唯有如此,才能实现工具理性与价值理性的统一,走向更具韧性的数字文明。

(本刊记者:夏昕)

来源:新湘评论

作者:宋春艳 夏昕

编辑:黄瑞婷

阅读下一篇

返回红网首页 返回湘潮网首页