3、人工智能和所处的政经制度 人工智能概念的第一次提出是在1956年,在美国的达特茅斯学院,明斯基、麦卡锡等科学家开会讨论“如何用机器模拟人的智能”,这也标志着人工智能学科的诞生。现在,自我人工智能、社会人工智能、人工智能技术,和其所处的政经制度之间的关系是什么? 人工智能是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的技术科学,用来生产出一种能以人类的思维方式来控制自己像人类一样行动。该领域的研究包括机器人、语言识别、图像识别、自然语言处理和专家系统等。 在这个机遇与挑战并存的时代,包括计算机视觉、自然语言处理、跨媒体分析推理、智适应学习、群体智能、自主无人系统、智能芯片和脑机接口等关键技术产业链,分为基础层、技术层、应用层。 基础层:芯片、大数据、算法系统、网络等多项基础设施,为人工智能产业奠定网络、算法、硬件铺设、数据获取等;技术层:计算机视觉、语音语义识别、机器学习、知识图谱等;应用层:金融、安防、智能家居、医疗、机器人、智能驾驶、新零售等。 一般而言,人工智能的基本目标是使机器,具有人类或其他智慧生物才能拥有的能力,包括感知(如语音识别、自然语言理解、计算机视觉)、问题求解/决策能力(如搜索和规划)、行动(如机器人)以及支持任务完成的体系架构(如智能体和多智能体)。类似于内燃机或电力的一种“使能”技术,人工智能可以为农业、制造、运输和医疗保健领域的特定技术提供支持。 自然语言处理(NLP)是人工智能的一个子领域,致力于使计算机能够理解和处理人类语言。360集团创始人周鸿祎教授说:“人工智能一定会产生自我意识,留给人类的时间不多了”。如仿神经网络的深度学习,是一种训练AI的方法,目的是让AI在某些思考能力上更像人,从而更加胜任某些工作,比如组织语言、绘制图像等。 但“像人”是有极限的,过于像人,比如学会任性、偷懒、耍坏,甚至反过来戏弄人类,就跟AI的存在意义背道而驰了。 网络并非法外之地,微信群内发言同样需要遵循公序良俗,遵守法律法规。网络空间为大家提供了更多的表达渠道,但畅所欲言并不代表为所欲为,可以有不同意见,但应该做到理性,谨言慎行、合理表达,切不可虚构、捏造事实或者辱骂、诋毁他人。 互联网技术的迭代发展,网络空间也记录着公民的言行举止,言行不当可能侵犯他人人格权。在使用微信群、企业钉钉群等网络通讯工具时,要对自身言行负责,规范自身网络言行。如手机也泄露行踪。而宪法是一种叫法,没有宪法,规矩其实是等同宪法,叫法不同。 对“自媒体”搬运、扩散谣言有害和虚假信息、蹭炒热点吸粉引流等违规行为,进行重点治理。用户要客观理性地表达观点,不制造和散播谣言。如发现相关违规内容,用户可通过前台举报投诉入口和@微博管理员的方式进行举报,站方将及时予以处置。 当然也要看到人工智能技术应用持续投入研发并领先一步的国家,会在工业尤其是服务业领域取得优势。虽然人工智能的发展与应用,可能导致大量失业,尤其是技能不熟练的劳动力,并拉开那些掌握熟练技能的劳动力与其他人的收入水平差距,加深社会矛盾。其次虽然小公司会将AI作为提高生产力的工具,但这些小公司最终会被大型企业所控制,形成强者愈强的局面。 目前大型科技企业的垄断,比如脸书、谷歌、腾讯等等。这些公司通过技术上积累的优势,获得了巨大权力。西方目前就存在对亚马逊这类平台企业权力过大的担忧:因为通过掌握数据,他们可以决定许多商铺、小公司的生死。而人工智能会进一步向科技公司赋权,也可能新出现黑马。如荷兰的半导体设备制造商阿斯麦,当然乐意与中国企业做生意,但因为政治原因遭到禁止。而欧洲内部也是分裂的,一旦欧洲进入“战时状态”,如今欧洲人的立场,就是看你“支持俄罗斯还是乌克兰”。而欧洲人认为,这个问题的答案十分明显。 如在俄罗斯入侵的第二天,芬兰总统尼尼斯托就说:“现在面具已经脱落,只能看到战争的冷面”。这让人工智能的一只脚迈入了这片禁区:ChatGPT的“大语言模型”通过互联网,掌握一个人几辈子都没法读完资料,会随意联想,有能力回答各种问题。这样ChatGPT展现出了包括对问题前提的质疑、发现错误予以修正、通过信息猜测你内心想法等新能力,这也让AI“懂你”成为可能。 这也许才是ChatGPT掀起禁止轩然大波,说不清的原因。在业界,而且在全社会,ChatGPT不只是“生成式AI”,而且也是“生成式”创新──大多数生成式人工智能模型,都是使用从互联网上搜刮的材料进行训练,并没有取得许可或支付报酬。海量文本数据集正在成为一般的知识生产要素,使其充分地发挥知识生产的潜能。可是它离改变人类社会,还有一定的距离。现在ChatGPT之所以火,不排除还有一些人为炒作、资本炒作的因素。 ChatGPT和Bard等AI聊天机器人,一个主要问题是它们倾向于自信地将不正确的信息陈述为事实。这些系统经常“产生幻觉”,即编造虚假信息,因为它们只是接受大量文本语料库的训练,但并不是查询已经过验证的事实的数据库来回答问题。AI聊天机器人的翻车并不少见,常被发现在一本正经地胡说八道。分析人士称,这恰恰暴露了聊天机器人的软肋,它们尚不能区分事实和虚构。 问题在于,它们并不具备理解能力,也无法区分事实与虚构,“在学会思考之前就学会了写作”。因此,媒体、风险投资家和科技企业的大肆宣传,可能会起到反效果。最大危险并不是它们比人类更聪明,而在于人类认为它们比人类更聪明,“这些模型应该只应用于错误成本较低的领域,比如推荐电影等。但它的神奇力量会让很多人相信,能够用于一些错误成本很高的情境中,比如贷款批准、监禁判决、医疗诊断或军事战略”。印度所谓的IT(信息技术、互联网技术)强,实际上是给欧美跑腿打杂的能力强。 ChatGPTA的知识来源于信息的标记,标记本身就带有意识形态,比如美国标记的变装男(LGBT),俄罗斯可能标记为娘炮。其输出自然是对美国的胃口──ChatGPT对很多事物的定义,实际上需要基于英文互联网的信息总结,而英文互联网本身其实可以看做一个信息茧房,所以在用它解决技术问题的时候还好,在用它研究文化问题的时候就一定要警惕。在英语霸权的世界里,中国的政治术语翻译得很不准确,因此外国人不能很好的理解,比如中国政协,翻译成英文很长,很多留学生可能也说不出来政协的全名。 4、英语真能引领全球聊天人工智能的发展? 从目前来看ChatGPT靠单纯讲故事,显然已经很难吸引到资本的眼球了。而人工智能在目前产业内,也逐步认识到如自动驾驶在技术和商业化层面的难度,整个行业正趋于理性化──这是因为软件能力的提升,是需要专业的判断力,汉语和英语在未来20年,也许会共同引领全球聊天人工智能(AI)发展。ChatGPT的出现,让我们看到中国在这个过程中有望领跑,特别是在规模巨大的传统行业中,广阔的市场和丰富的场景是中国AI的跳板,中国的大数据和AI的优势、自动化、智能化有望领先美国,保持“世界工厂”的地位。 聊天智能化更加考验芯片、算法和强算力服务器,更大的挑战在等着我们。类ChatGPT相关技术落地应用,可能存在一定技术障碍。由此“贷前尽调报告”、“贷后风险排查报告”等各类报告模板,整合要素信息,按照模板规则可自动生成风控报告──合规性方面,模型生成的答复、版权归属尚未有明确的法律约束;模型可能会产生有偏差的信息,存在传播虚假信息的法律风险;模型训练所需的数据是否需要获得对应的授权尚不明确。技术性方面,大语言模型的能力得益于巨大的参数量,在训练、部署时资源消耗巨大,导致了其投入的不确定性;大模型训练完成后其知识与数据时间有关,更新知识成本巨大。由此拥抱、探索、取舍是诸多金融机构对新技术的态度。 人类能通过群体协作创造知识、继承知识、运用知识。这三个环节,全都是依靠语言来实现。允许人类将“海量”个体所获得的认识及载体统筹起来,在极短时间“掌握”过去与未来,能带来很多行业生产效率的大幅提升。但ChatGPT也可能被滥用来产生虚假的社交媒体,成为犯罪分子和大规模犯罪工具。从历史经验中找答案。核能能为人类提供电力,带来光明,核能也是原子弹的原理,人类也采取有效措施避免不应有的各种核灾难。要了解ChatGPT工具的优点和缺点,然后避开其缺点,因它不会人们的害怕和抵触,就消退。
|