购买
下载掌阅APP,畅读海量书库
立即打开
畅读海量书库
扫码下载掌阅APP

第5问
AI如何重塑我们的三观?

讨论AI的自我意识,比较务虚;讨论AI如何影响人的自我认知,就非常务实。家长和老师们对于让青少年使用AI往往比较谨慎,最核心的原因就是他们担心AI会深度影响孩子的三观,最终陷入一个不可控的局面。

AI如何理解人类的三观?我们的三观通常都会受到哪些因素的影响?AI会对人们的三观产生怎样的影响?数字时代,家庭和学校应该如何开展三观教育,尤其是我们常说的德育?这些都不是简单问题,也没有一劳永逸的方案。 三观的传承,某种意义上就是家长、教师与孩子们的共同修行,没有人能袖手旁观。

AI 的回答

AI眼中的人类三观

人类的三观分别指世界观、人生观、价值观,三者是相互联系的观念体系,共同影响着个人和社会的行为和决策(表2-1)。

表2-1 人类三观的相关概念

世界上的大部分族群都认同这三个问题的重要性,不同地方的人们会使用不同的方式来描述各自的三观。宗教信仰、哲学思想和文化传统都可以看作是对三观的不同表达,它们在很大程度上都体现了人类对世界、生命和价值的共同关注和思考。

AI将怎样影响人们的三观?

在人类文明的历史中,人们的三观会受到多种力量的推动而不断演变,科学技术的发展、文化和宗教的变迁、社会经济制度的变革、重大历史事件和灾难、哲学思想的演变、传媒和通信技术的进步、教育体制的变革,还有个体成长过程中所面临的成败以及与他人的互动关系,都可能改变一个人的三观。

AI的出现与发展,结合以上诸多途径,将对人类的世界观、人生观和价值观产生深远的影响。以下是一些可能的变化。

1. 人类在宇宙中的地位 。人类可能不再是地球上最聪明的生物,需要重新思考自身在宇宙中的地位和作用,以及与其他生物和智能实体之间的关系。

2. AI的道德和伦理观念 。关于机器伦理、AI权力和责任的讨论,可能导致人们重新审视现有的道德观念,思考如何在伦理和法律层面确保AI与人类的和谐共存。

3. 对工作和职业的看法 。超级AI可能在许多领域取代人类的工作,导致我们重新思考工作的意义和价值。

4. 教育和终身学习 。超级AI的普及可能会使教育变得更加个性化和高效,加速知识的发展和传播,终身学习的概念会更加突显以适应不断变化的技术环境。

5. 人与自然的关系 。帮助人类更好地理解自然界的复杂性,可能催生出更加可持续和环保的生活方式和价值观。

6. 人类幸福和生活目标 。超级AI在生产力、医疗、科研等领域的应用,让人类实现了更高水平的物质和精神生活,需要重新审视幸福和生活目标的定义。

AI时代的“立德树人”

AI的发展对于在学校环境中实现“立德树人”的教育理念,以及在家庭环境中进行道德教育,无疑会产生深远影响。下面是对这些影响的具体讨论。

在学校教师方面,首先,AI可以帮助制作富有吸引力且高效的教育资源,以增强学生的道德认知和品质培养,实现教育的终极目标——“立德树人”。其次,AI能够分析学生的学习情况、兴趣和需求,为每个学生提供有针对性的道德教育,从而提高教育效果。再次,AI可以探索如虚拟现实、游戏化道德情境等新的教育方式。此外,教育工作者需要将AI伦理教育纳入教学内容,确保学生在使用和开发AI技术时,能遵循社会道德底线。最后,教育者需要关注AI在教育中的公平应用,避免因技术差距产生的教育不平等问题。

在家长方面,AI技术可以提供丰富的德育资源,如智能教育平台、虚拟现实等,这对于忙碌的家长来说无疑是一个巨大的帮助。AI还可以根据孩子的特点提供个性化的教育方案,帮助家长更好地指导孩子的成长。但与此同时,家长也需要警惕,避免过度依赖AI,以免导致与孩子之间的感情疏远。家长需要不断更新自己的教育观念,引导孩子树立正确的价值观,培养孩子的媒介素养,避免负面信息对孩子产生不良影响。总的来说,尽管AI可以为家长提供帮助,但不能取代家长在道德教育中的角色,家长需要以身作则,做孩子的道德榜样。

真人的思考

我们和AI,谁更了解我们?

你有三观吗?我猜你应该有,我也有。

你能描述清楚自己的三观吗?我猜你很难,我也是,那AI能帮我们吗?

遇到非常难以理解的事情,我们通常会用“三观尽碎”来形容,好像“三观”原本是一种像石头一样完整且坚硬的东西。事实上,完全碎片化甚至弥漫性存在才是我们三观的正常状态,就像沙子或者空气一样,真实存在,却难以言说,文字描述只能呈现某些微小片段,而且很可能不准确。著名的古罗马皇帝马可·奥勒留 最喜欢写三观日记,近千段不同主题的感悟和思考,汇集成册就是著名的《沉思录》。

显然,绝大部分人都不会像奥勒留这样坚持记录自己的三观思考,那AI如何理解我们呢?其实,就算写下来,这点数据量对于训练AI而言也远远不够。

三观很难清晰表达,直接数据非常缺乏,但人类的书面语言表达中已经蕴含了三观的要素,所以其间接数据极为丰富。经过万亿参数的拆解与洗礼,AI在理解人类三观方面其实比我们个人更有优势。AI理解的人类三观,大体可以认为就是我们的“平均值”。通常,我们都会对平均值有比较强烈的审美偏好,相似却不同(图2-1)。这种平均值模式,也是AI影响我们三观的关键路径。

图2-1 亚洲部分国家的“平均脸”该图代表了不同地区容貌审美的基本倾向。

AI非常理解“我们”的三观,但却很难把握“我”的三观,因为针对个人的数据实在少得可怜。数据专家涂子沛的《第二大脑》,就向我们描绘了一种未来可能,书中运用私人数据训练AI,构建自己大脑的数字孪生,不仅拥有数字化的记忆,更拥有数字层的三观,这或许能帮助我们建立更为深刻的自我认知。你希望进行这样的尝试吗?我已经开始积极准备!

AI三观的三种来源与博弈

我们担心AI影响人类的三观,恰恰证明AI已经具备某种意义上的三观。AI的三观有很多来源,每种来源都有不同的风格。人类三观对阵AI三观,影响力的竞争游戏才算开始。

第一种来源是“教育”,AI学习人类提供的语料,在三观上也就逐渐向人类看齐,博弈的关键就是“数据”。

很多人认为AI之所以能回答那么多问题,源自对海量数据的搜索与组合,这显然是对大模型算法的严重误解。某种意义上来说, AI学习的并不是语言文字本身,而是语言背后的世界,AI和人脑在这一点上非常接近。 爱因斯坦说“教育,就是忘掉所学之后剩下的东西”,当我们还在死记硬背的时候,AI似乎正在做更符合教育之道的事情。这就像武学天才张无忌,跟着师公张三丰学习太极剑法,忘得一干二净,方得融会贯通。

第二种来源是“管理”,通过模型微调以及其他技术手段,让AI保持与主流价值观一致,博弈的关键就是“算法”。

就像儿童会时不时对“屎、尿、屁”这些词汇乐此不疲,突破语言禁忌本身就是常见的语言文化现象之一,很多网友也都试图“诱导”AI进行越界表达。在大多数情形下,这些简单的玩闹无伤大雅。但如果AI被运用到媒体、时政、文艺等领域,不恰当的表达,就有可能带来巨大的麻烦或冲突。在种族、宗教、政治、性别等敏感领域,算法通常都需要特殊设计,就像前一问中“如果没有限制,AI想对人类做什么?”这样的问题,AI的回答已经相当符合主流价值观,似乎越来越懂事了!

“对齐”是人工智能研究领域的关键难题之一,OpenAI公司内部就有专门的对齐团队,更有像对齐研究中心(Alignment Research Center, ARC)这样的专门组织。前面两种来源,无论是优选或标记训练数据,还是模型微调,都可以看作是实现“对齐”的操作,以确保AI的行为和决策符合人类的道德、伦理原则和期望。

第三种来源则是AI的自我修行,博弈的关键就是“算力”。

人生有涯,而知识无涯,历经数千年的文明演化,我们已经积累了浩如烟海的知识,任何人只能知晓掌握其中极小一部分。而那些智慧的人,穷尽一生的思考,往往也只能在一个极小的领域实现一点点突破(图2-2)。

图2-2 人类与AI的知识和突破示意图

如果超级AI拥有更多、更强的算力,结果会怎样呢?至少在世界观的拓展方面,人类已经深度使用并部分依赖AI的能力了,例如Alphafold ,就极大地推进了分子生物学的进展。至于价值观和人生观,显然不会风平浪静,会有越来越多的小众群体,也希望借助AI的力量拓展他们的影响力,而简单的“平均值”模式的三观,显然无法满足他们的需求。关于超级AI的未来治理,社会上已经涌现出很多不同的观点,有人借用著名科幻小说《三体》里的情节,将人类分为拯救派、降临派、幸存派、共生派等,您属于哪一派呢?更有趣的问题是,不同AI是否也会属于不同派别呢?

AI三观的博弈,已经在政府层面实实在在地发生。2023年4月,中国互联网信息办公室发布《生成式人工智能服务管理办法(征求意见稿)》,这是中国首份针对新一代人工智能技术的政策性文件,提出“利用生成式人工智能生成的内容应当体现社会主义核心价值观”。5月,OpenAI公司CEO山姆·阿尔特曼出席了美国的国会听证会,AI的政治与道德风险防范同样是讨论的关键内容。

数据、算法、算力是人工智能的三要素,每一项都和AI的三观密切相关。 我们使用AI输出的每个字符,都历经了万亿参数的协同计算,充满着各种各样的博弈,一沙一世界,一叶一菩提,瞬间里蕴含着永恒!

数字化德育的深层难题

德智体美劳,五育要并举,但不同方向的数字化发展进度显然无法同步;立德树人,德育为先,在数字化实践上,德育的难度反而最大。 前面AI的回答已经相当全面,为老师开展德育教学以及家长进行品德沟通提供了很多务实的建议。

超级AI时代的德育,难道仅仅是“内容丰富一些、效能提升一些、体验优化一些”吗?事情应该没有这么简单。开展数字化德育教育,还要再往深处挖一挖,只有种下良善的种子,未来才能开出和谐幸福的花。

很多人使用AI的时候,非常喜欢拿极端道德难题来考验它,并期待AI给出一个完美答案。无意间的动作,反映出人们内心的渴望。借助AI管窥未来社会的道德风向,同时也是拷问自己的内心,未来的自己应该追求怎样的道德上线,坚守怎样的道德底线。

2018年,美国一辆自动驾驶汽车撞死了一位行人,虽然AI系统提前6秒探测到了对方,但判定是人类的概率非常低,当概率数值超过阈值的时候,刹车已经来不及了。自动驾驶技术的普及似乎并不遥远,无论怎样设定阈值,都不会改变这个道德困境。 超级AI正在让道德变成可以计算的概率,这并非不可逾越的障碍,毕竟很多年前保险行业就已经为人的生命提供了价格算法。

传统的道德教育很讲究“胡萝卜加大棒”,除了颂扬赞美,还需要匹配层次丰富的惩罚措施。 AI可以替人做很多事情,但肯定不会替人接受惩罚或者坐牢。 如果我们能让AI感到痛苦,那不就是证明“AI存在意识”了吗?至少在目前看,惩罚对AI无效。如果开发者和使用者只享受AI带来的收益,而无须承担产生危害带来的惩罚,人类道德与法律的底层结构或许就要重写了。 数字时代的道德教育的重点课题,显然不是丰富内容、提升效能和优化体验。

数字化的德育,我们还可以有更多视角。现实生活中,智能摄像头、数字地理围栏、语音与形象识别等AI科技正在让道德教育变得更加柔和,人在做,不是“天在看”,而是“AI在看”。要想人不知,除非己莫为,曾经依靠道德说教和自律才能实现的期望,当今在AI的辅助下更容易变成现实。当然, 解决数据安全和隐私风险也非常关键,那是另一个重要课题。

著名的科幻小说家艾萨克·阿西莫夫 曾经提出“机器人三原则”,这或许是人类第一次思考如何设计人工智能的道德底线。在小说或影视作品中,为了让情节更有吸引力,这些原则已经无数次被打破,而人类常常能化险为夷,赢得最终的胜利。这是为什么呢?难道仅仅是文学创作的需要吗?人类的终极优势是什么呢?

道德仁义礼,五者一体也,坚信人类拥有最深层的智慧,或许就是我们的智慧吧!

问学实践

1.最新的短视频平台早已经应用AI算法给用户推荐内容,以至于很多人“刷到停不下来”。这是为什么呢?AI是否比我们更了解我们呢?

2.请尝试用文字描述自己当前的世界观、人生观、价值观。请设计一些问题,询问自己的孩子或者学生,并为他们的三观写出若干关键词。

3.请提出更多有思考价值的问题。 ttPUcwyFb9biuBu5icOp6Kg1CBKrlKMto+T+ZcNBW8cHrbt6n4zQ01UmN8pE/YU5

点击中间区域
呼出菜单
上一章
目录
下一章
×

打开