a、从经验、知识到智能 华为战略研究院院长周红院长从经验、知识到智能分析:人工智能在历史上有不同的流派,例如符号主义、贝叶斯主义、进化主义、行为主义,以及连接主义等,但它们还没有很好地融合起来,缺乏共识的目标定义是重要的原因之一。即没有定义清楚并达成共识,就很难确保AI发展的目标与人类一致,也很难合理地分类和科学地计算。 从理论和技术的角度看,通过规则和法律来加强AI的伦理和治理外,目前还面临三个重要的挑战:AI的目标定义、正确性与适应性、效率。从狭义人工智能,到通用人工智能与超级人工智能的过程中,首先要通过理论和技术的不断突破,来实现万物智联,促进社会的进步。周红院长提出,面向知识+智能世界的假设和愿景认为,是通过从多模态感知融合与建模,到“知识+数据”驱动的决策,实现更高正确性与适应性的自主智能系统。 例如,1997年AI打败了国际象棋世界冠军卡斯帕罗夫后,人们还在不断研究提升中,如自动驾驶、图像识别、语言文字处理等。当前AI在语言文字的学习、理解和生成上表现出来的能力,超出了很多人的想象。如在接近山顶的能力上,软件编程、科学研究、定理自动验证和自动证明等,学术界和产业界已经有一些探索。哈佛大学有教授把人类的智能,分类成八大类,包括语言文字、视觉与空间、自然理解、自我认知、人际关系、音乐、运动和数理逻辑。 周红院长希望未来的自主智能系统,更好地支持自动驾驶网络、自动驾驶汽车、云服务等领域。目前英文ChatGPT,采用通俗、规范、凝练的自然语言科普式地解释科学问题,它的表达方式也比较理想,同时它能快速地定位,和抵达任何人类知识的边缘和角落,且具有强大的知识归纳总结能力。但它还不能独立突破人类已有知识的边界──ChatGPT绝不会是唯一,虽然它是第一个让世界能直观看到AI在知识归纳上,所能达到的能力的系统。如果智能中文聊天手机普及研发出来,比较“唯一”,不是存在中文和英文两类知识的区别。 英文作为两类知识中的一种,类似谷歌平台在英语世界,一般可以通过公开渠道获取已经发表的科技论文知识,包括各种公开的数据、搜索引擎能查询到的信息、学术论文、教材等。中文作为两类知识中的另一种,类似谷歌平台搜索能力在中文世界也是最强大的,但一般还不能完全通过公开渠道获取已经发表的科技论文知识。 如果把通过公开渠道获取已经发表的科技论文知识的这部分知识,称为“公共知识”;另一类包括依赖于个人成长的特殊环境与经历,在某个特定行业工作,以及个人对世界的理解而形成的知识体系,可将之称之为“个人知识”。那么智能中文聊天手机也许类似“个人知识”,英文ChatGPT或许类似“公共知识”。很显然在辨别一个事情到底是真的还是编的时候,谷歌平台在中文世界被踢出,是它不遵守我们国家的法律法规。而“个人知识”的重要性要远大于“公共知识”,但也要避免“游而不学”打卡式的浏览学习。 “变味”的浏览学习不如自己钻研,但也要避免“只学不旅”或“只旅不学”的现象。把研学所见转化为知识,研学中会涉及很多知识;指明:途径、难点和展望,称为“三全育人”法。这也称为“以论文为导向培养人才”法──一个人在科研这条路上能走多远,除了努力以外,还需要天赋。有人说天赋,就是干啥啥不行,但在某一方面很厉害,超乎常人。以论文为导向,如果不以论文为考核指标与利益挂钩;因人死了,一生的经验、知识到智能都带走了,能留下写的“论文”,后人能看见,才真正是为全人类服务,什么弊端呢?因为所谓“论文”,不就是在世上生活时的“经验、知识到智能”吗? 写“论文”的目的是为啥?不就是为了交流吗?同行内的交流,会互相启发,从而推动整体的科技进步,这不就是“论文”的初心吗?何错之有?但这里“交流”学问也多,可分人人、机机与人机协同。 人人、机机很普遍,如社会现象人人协同,有叫“阶级斗争”的;机机协同,有叫“生产斗争”的。一般机机协同,是指机器与机器之间进行协同合作,通过自动化、互联网和人工智能等技术手段,实现信息共享、任务分配、数据处理等功能。但机机协同,也有用于战争。 人机交互协同,有人说指人与机器之间进行协同合作,通过人的指导、监控和机器的执行,共同完成任务或达成目标。但这话太“单级”;是的,人机协同利用机器的计算、存储、处理等能力,可以提高工作效率和准确性。人机协同的优势,在于可以充分发挥机器的计算和自动化能力,同时可以减轻人的工作负担和提高工作效率。 但这其中还有,人机协同还包括是人与自然的统一,指明人类社会的“途径、难点和展望”的。为啥智能中文聊天手机是必要的,原理是人人、机机本质单向,标准客观也是单级的,最终会出问题。像“冷战”中单级制度一样,为啥会有“输赢”──它没有“人与自然的统一”类似的客观量化标准。类似“湖广填四川”前“人杀人”自相大残杀现象,这种“间断与连续”,是其它地区都没有经历如此之多的体验。中国工程院院士、河北医科大学副校长及法医学院院长丛斌教授说的“范式转变重要”;中科院院士、著名数学家川大原校长柯召教授,从抗日到“文革”前研究过的“柯猜芯片”──空心圆球内外表面不撕破的“翻转”;以及我国“文革”后讲的“改革开放”等等,可说明是中华民族5000多年中的“经验、知识到智能”,才凝聚起14亿多说中文的人种,和现在的伟大复兴的体现。 丛斌院士虽是从生命科学与以大数据、云计算、物联网、人工智能等为代表的信息科学技术深度融合,做的“法医学研究范式转变的重要”的主题报告。但这样例子太多。法国里昂高等师范学院本杰明•华尔德教授等,2023年开发出的首个基于微波的量子雷达,其性能比现有传统雷达高20%,实现了所谓的“量子优越性”。这里的“范式转变”是从2020年他们发明的一种超导电路,其能够纠缠、存储和操纵微波量子态,并计算微波场中的光子数量,有望应对微波量子计量领域最大的挑战之一:在雷达传感中展示量子优越性。 他们最新量子雷达是利用两种微波辐射之间的关联来工作的,这种关联超出了经典物理理论的范围,这不类似“柯猜芯片”──空心圆球内外表面不撕破的“翻转”吗?又如美国在1971年专门启动消灭肿瘤的“战争”,但其结果却远未达到预期。为啥?原因在于肿瘤属于复杂疾病,必须从一个基因、一个蛋白质、一个分子、一次研究,转变为对所有基因、所有蛋白质、所有分子进行系统研究,这种“范式转变”不仅是将生命体内的研究对象,从局部转变为全局,更重要的是对生命的认知从简单性思维转变为复杂性思维。 由此可见“转变研究范式”,能够更完整地认识复杂系统的运行和变化,从零到一基础科学的突破。这即使在人人、机机和人机协同中,也不叫转变“初心”或“颜色革命”──智能是一切社会关系的总和,即创新是实践的积累,没有深入的实践就难以创新,这难道不是是知识学用中“理论与实践、连续与间断”的整合吗? b、从ChatGPT到公共知识、个人知识 无论某些人如何强调ChatGPT具有何种强大的功能,但作为一种AI,ChatGPT进行所有回答的基础,必然都是公共知识。人工智能方面的诸多不尽如人意,也源于此。如从一开始就是被编的程序,远远没有没有形成人机(物)环境良好互动的社会关系和生产关系。 这就没有了主动性和创造力,只是好像“活着”,没有“发展”。“知识+智能”也是一切社会关系的总和,它带来的一些挑战和问题,在社会关系、生产关系中发挥着重要的作用,并且“知识+智能”是社会关系中不可忽视的因素,其不仅仅是局限于技术或个体的认知能力,而是指涉到社会关系、人际互动和文化环境等方面。 例如智能技术的不平等应用,可能加剧社会差距,产生种族、性别和经济不平等;隐私保护和数据安全问题,成为智能时代面临的重要挑战;同时,人与机器之间的关系和人类价值观的转变,也是需要关注的问题。总之需要认识到智能技术对社会产生的深远影响,并积极探索如何在智能发展的同时解决伦理、隐私和公平等问题,以实现智能的有益应用,并促进社会的可持续发展。 “知识+智能”是广泛存在的,具体还可分为科技智能与人文艺术智能。科技智能和人文艺术智能存在的一些显著异同之处是:科技智能主要关注于开发和应用各种先进的科学技术,以实现人类在生产、生活和社会各个领域的需求和目标,强调解决问题实现可持续发展。 人文艺术智能则更加关注于人类的情感、审美和创造力方面,致力于理解和模拟人类的情感认知过程,推动艺术、文学、音乐等领域的创作和表达,并探索人类文化、历史和价值观等方面的智能化应用。 二者的一些共同之处是:科技智能和人文艺术智能的发展都离不开人类学、社会学、计算机科学、人工智能和数据科学等基础理论和技术的支持。而且两者之间也可以相互融合和促进,如将科技智能的技术应用于人文艺术领域,实现更加智能化的艺术创造和表达方式。 总之以上这类知识的特点,是内容与规则明确,通用性强,且可以通过公开渠道获取,如用ChatGPT进行的任何回答,即必然有一个“数据源”。但在社会生活中,有大量的工作和知识,实际上是不依赖于“数据源”,甚至这些工作本身就是“数据源”。 其实技术的进步解决的,从来只是“公共知识”部分的问题,这也是为啥技术人才具有全球范围内的通用性的原因。即不管你去了什么地方,技术的东西是不会变的。在这个角度上无论如何评价ChatGPT,乃至于人工智能的意义,其核心依然是通过某种技术手段达到某种目标。而从更深层次的角度来说,技术本身是具有中立性和客观性的,无论ChatGPT如何能够基于某种模型来对语言、图形等进行深入理解,并且输出观点,它能够做到的也只是基于你输入的和它能检索到的公共内容──当然不同的机构,可以基于自己的需求,再添加一部分本专业内的专有内容来进行回答。 这里智能中文聊天手机类似的“个人知识”,与英文ChatGPT 类似的“公共知识”不同的是,它的“个人知识”兼有中立性和非中立性的特点:类似“个人知识”的中立性,体现为它可以在公共知识之外提供一些小众的、没有被数据化的知识,而其非中立性则体现为每个人在叙述知识的时候,都是基于各自的立场、偏好等等而说出的,这其中存在着很大的主观故意:假设你用英语和中文分别向ChatGPT提问,让它写一篇有关爱国主义的文章,它写出来的东西会一样吗?如果一样,没意义。如果不一样,各国都会对ChatGPT如临大敌。ChatGPT所面临的最大危机,其实已经不来自于它能否取代一些人工作了,而是它本身就已经脱离了技术中立的设定,而成为意识形态斗争的主战场。即对人工智能以最大效率帮助人而欢呼的同时,不要忘了一个机器可以随意骗人的时代也将到来。
|