AI的决策不仅受到算法逻辑的影响,更受到其训练数据中蕴含的人类价值观的影响。 AI的决策不仅受到算法逻辑的影响,更受到其训练数据中蕴含的人类价值观的影响 在人类历史的长河中,技术的发展始终伴随着一个根本性的问题:技术究竟是用来服务人类,还是最终超越人类? 随着人工智能的不断发展和进步,这个问题变得尤为迫切。尤其在OpenAI推出的O1大模型展现出惊人的思维链能力后,我们不得不面对一个更具挑战性的议题:如何确保这些越来越“聪明”的AI,不止拥有能力更要拥有类人的价值判断。 被称为“传播学之父”的麦克卢汉曾提出过一个概念:人的延伸。在他的理论中,媒介是人感官的延伸、望远镜是人眼睛的延伸、汽车是人腿的延伸,那人工智能便应该是人思维的延伸。 在《我所看见的世界》一书中,华裔科学家、“AI教母”李飞飞也强调了以人为本的重要性,她认为:“如果人工智能要帮助人们,我们的思考就必须从人们本身开始”。 以人为本的背后带来的是科技的创新不断突破边界,以开放的心态拥抱新的可能性;社会的安全,强调在AI技术发展的同时,必须确保其对人类社会的负面影响降到最低;同时,也是技术的普惠,则要求AI技术的发展成果能够惠及每一个人,而不是成为少数人的特权。 一些令人担忧的案例相继出现:在医疗领域,AI系统在进行诊断决策时可能出现价值判断偏差;在自动驾驶领域,AI面临“电车难题”等道德困境时的决策标准仍存争议;在内容创作领域,AI可能产生带有偏见或误导性的信息。这些案例表明,随着AI系统变得越来越“聪明”,其决策逻辑和价值取向的重要性日益凸显。 随之而来的是对AI越来越强的监管和把控需求。AI在道德困境中的决策偏差,如在自动驾驶中必须选择撞向一边的行人还是另一边的障碍物时,其决策逻辑和价值判断的依据是什么?这些问题的复杂性在于,AI的价值观实际上是其训练数据的“投影”。这意味着,AI的决策不仅受到算法逻辑的影响,更受到其训练数据中蕴含的人类价值观的影响。 在确立人机关系的过程中,《人本智能》报告中提出了“三线”理念。基准线是人机协作,通过混合智能实现人与AI的协同工作,提高效率和创造力;趋势线是人机共生,随着技术的进步,人类与AI的关系将更加紧密,走向“人机物”三元融合的新时代;底线是确保人类始终处于主导地位,无论AI技术如何发展,都必须确保人类的利益和价值观是最终的决策依据。