谷歌人工智能系统(谷歌人工智能系统的关键技术)
Google Brain,中文名为谷歌大脑,谷歌大脑是Google X实验室一个主要研究项目,Google X部门的科学家们通过将1.6万台电脑的处理器相连接,建造出了全球为数不多的最大中枢网络系统——谷歌大脑。它是谷歌在人工智能领域开发出的一款模拟人脑的软件,这个软件具备自我学习功能,因此被称为谷歌大脑。
为什么叫谷歌大脑
谷歌大脑立项于2011年,是谷歌研究员Jeff Dean、Greg Corrado和斯坦福大学教授Andrew Ng之间共同研究的一个项目,可以说谷歌大脑是该公司人工智能研究部门Google AI内部的深度学习人工智能研究团队、开放式机器学习研究与信息系统以及大规模计算机资源和工具相结合的结果,这为谷歌多个内部人工智能研究计划提纲了研究工具,使公众能够探索神经网络。
谷歌的深度学习研究由Andrew Ng领导,深度学习需要创建神经网络,这些网络可以复制人脑的功能。这些多层计算机网络,就像大脑一样,可以收集物品信息并产生视觉或听觉感知,同时还会做出相应反应。
Andrew Ng
谷歌大脑最令人高兴的成就之一是当计算机分析数十张视频截图时,能够从这些截图中准确识别出一只猫。(《纽约时报》的标题:"识别一只猫要识别多少台计算机?")正如Ng所解释的那样,系统发现了猫本身的概念(系统通过推演自己理解了猫是什么),因为从来没有人告诉过它什么是猫,这是机器学习的一个里程碑。
Andrew还共同创立了Coursera,它是另一个关注教育行业的人工智能平台。Andrew本人是世界上最著名和最有影响力的计算机科学家之一,2012年被《时代》杂志评为100位最具影响力人物之一,2014年被《快公司》评为最具创造力的人,更不用说他是斯坦福大学的教授。
谷歌大脑的另一位创始人是杰夫·迪恩(Jeff Dean),他是谷歌大脑的早期成员,是一名计算机科学家和软件工程师。他目前是Google AI的负责人。
Dean在世界各地长大,从明尼苏达州到夏威夷,再到波士顿、阿肯色州、日内瓦、乌干达、索马里、亚特兰大都有过他生活的身影,在高中和大学期间,他编写了世界卫生组织使用的软件。
Jeff Dean,Google Brain
谷歌大脑项目变成了谷歌AI产品的孵化器,Google翻译、BERT语言模型(为Google搜索提供支持)、TPU(Google授权给客户并在内部用于一系列生产项目的硬件加速器)和Google Cloud AI都得到了谷歌大脑的支持(将AutoML作为服务出售)。由于拉里·佩奇(Larry Page)渴望与那些想要在"一只脚踏入行业"的同时做"疯狂颠覆世界的事情"的人合作,谷歌大脑诞生了(正如佩奇在接受沃尔特·艾萨克森(Walter Isaacson)采访时所说)。
在杰夫·迪恩(Jeff Dean)撰写的一篇关于ai.googleblog.com博客文章中,"我们小组研究文化的一个方面是使研究人员和工程师能够解决他们认为最重要的基础研究问题,教育和指导年轻研究人员是我们通过研究工作所做的事情。
谷歌大脑在研究什么?
正如迪恩所说:"实现谷歌大脑使命的关键是在机器学习领域开展新的基础研究,为此,我们建立了一个蓬勃发展的团队,进行长期、开放的研究,以推进科学在视觉、听觉、感知与自然语言的理解,艺术和音乐的生成以及系统架构和算法等领域进行研究。
首先,谷歌大脑团队研究的方向为自然语言的理解,例如谷歌翻译通过采用一种新的深度学习系统,为谷歌翻译项目做出了贡献,该系统将人工神经网络与庞大的多语言文本数据库相结合,这意味着可以将一种语言的语音直接翻译成另一种语言的文本,而无需先将其转录为文本。
谷歌翻译于2006年首次亮相,从那时起就成为谷歌最可靠和最受欢迎的资产之一。它每月为超过5亿用户提供超过5亿次服务,并为其每天翻译超过1400亿个不同语言的单词。它不仅作为自己的独立应用程序存在,而且还作为Gmail或Chrome中的集成功能存在。
互联网小常识:CIDR使得路由选择变成了从匹配结果中选择具有最长网络前缀的路由的过程,这就是“最长前缀匹配”的路由选择原则。
其次,谷歌大脑团队的研究目标之一是通过机器学习来改进机器人技术,并通过机器人技术改进机器学习。通过探索如何教授机器人可转移的技能,在他们专为机器学习研究而构建的独一无二的实验室中并行学习许多操纵手臂。
据迪恩解释:"我们正在教机器人预测当它们移动物体时会发生什么,以便了解周围的世界,并在没有监督的情况下做出更好、更安全的决策,我们正在公开分享我们的训练数据,以帮助推进这一领域的技术水平。
2016年,Google Brain还帮助启动了一个名为Magenta的项目,这是你在剪辑中看到艺术家使用的平台。研究艺术与人工智能的联系,以及采用机器学习算法帮助人们更具创造力的可能性。Magenta正在推动内容制作的生成模型的最先进的技术,从音乐和图片生成开始,然后转向文本生成和虚拟现实等领域。
此外,谷歌大脑的目标之一直就是更好地理解语言。很多工作都涉及训练神经网络模型,其中一个项目是Duplex。根据ai.googleblog.com将双工描述为"一种新技术,用于进行自然对话,通过电话执行现实世界任务。该技术旨在完成特定任务,例如安排某些类型的约会。该技术使此类工作的对话体验尽可能自然,允许用户自然地说话,就好像他们正在与另一个人交谈一样,而无需尝试适应计算机。
Google双工技术旨在看起来自然,并提供愉快的对话体验。Google Duplex技术可以进行复杂的对话,并完全自主地完成其大部分职责,而无需人工干预。
另外一个研究领域是机器感知。这需要使用计算机来查看我们周围的世界,以及分析,建模和处理视觉,音频和多模态数据。在谷歌,机器感知仍然是一个研究领域,具有巨大的潜力,对我们的日常生活有益。
从谷歌之前展示的视频中可以看出,这是一个使用机器感知的应用程序,演示了如何使用移动视觉,面部,条形码,文本API。首先,应用程序扫描在线广告中的QR码,将用户直接带到产品页面。然后用户使用面部API虚拟试用产品,在这种情况下,产品是太阳镜。最后,用户使用文本 API 扫描信用卡进行支付。目前,谷歌已经看到使用神经网络的机器感知方面取得了巨大进展,体积压缩,学习图像压缩和视频压缩已经取得了良好的效果。
最后,谷歌大脑团队创建了一个名为PAIR Initiative People + AI Research的项目。它的使命是研究和建立人类参与人工智能技术的最有效方法。PAIR致力于解决各种问题,其中一些我们已经提到过:通过可解释性工作帮助来自各个领域的学者和从业者,包括计算机科学,设计,甚至艺术研究人员理解机器学习系统,都是PAIR工作的一部分。
谷歌大脑 vs DeepMind
对于那些想了解谷歌大脑的人来说,谷歌大脑和DeepMind是不一样的。
谷歌大脑是谷歌内部从2011年开始孵化的一个人工智能项目,它曾经是谷歌内部主要的人工智能研究工作,而DeepMind则是一家英国人工智能初创公司,于2014年被谷歌收购。
虽然谷歌大脑和DeepMind都是研究实验室,然而,谷歌大脑在许多领域都有更强的应用重点、研究论文,而DeepMind的重点是强化学习,他们有旗舰产品,如AlphaGo Zero,这是实现人工通用智能的先锋。一位曾在DeepMind和谷歌大脑工作过的员工描述了两家公司的组织结构。
互联网小常识:FTP服务器的选项包括服务器选项、域选项、组选项和用户选项。FTP服务器的域创建完成后需要添加用户才能被客户端访问。
最后,迪恩在Google AI博客中撰写的一篇名为《Google Research》的文章中揭示了谷歌大脑的详细情况:"我们很自豪能够热情地支持和参与更广泛的研究社区。2020年,谷歌大脑研究人员在领先的研究会议上发表了500多篇论文,此外还担任了项目委员会的成员,组织了研讨会,教程和许多其他活动,旨在共同推进该领域的最新技术......2020年,我们以3700万美元的资金支持外部研究,其中包括850万美元的COVID研究,800万美元的研究包容性和公平性,以及200万美元的负责任的人工智能研究。
对于未来,迪恩在另一篇文章中表示,团队的重点将放在促进研究诚信、负责任的人工智能开发、推进多元化、公平性和包容性三个方向上。它表示:谷歌大脑团队热衷于确保创建有影响力的产品和计算系统的个人更好地反映世界各地使用它们的人,将寻求更多学术和工业合作伙伴的帮助,以推动这些举措,这些举措将在Google翻译内部以及更大的研究和学术社区中进行。谷歌将继续研究新的机器学习算法,使机器学习更加高效和可访问,以及打击语言模型中不公平偏见的方法,发明新的策略来保护学习系统中的隐私等等。
互联网小常识:Aironet 1100 系列接入点是一款无线局域网接发器,主要用于独立无线网络的中心点或无线网络和有线网络之间的连接点。这款接入点设备主要是为企业办公环境而设计,兼容IEEE802.11b与IEEE802.11g,工作在2.4GHz频段,使用IOS操作系统。
免责声明:本站所有信息均搜集自互联网,并不代表本站观点,本站不对其真实合法性负责。如有信息侵犯了您的权益,请告知,本站将立刻处理。联系QQ:1640731186