谷歌推出了Gemini,这是一款突破性的人工智能模型,旨在超越传统人工智能系统的局限性。该文章由Maria Diaz于2023年12月6日为ZDNET撰写,概述了Gemini的关键方面,为读者提供了对这一先进技术的全面理解。
Google Gemini是什么?
Gemini不仅仅是另一个人工智能模型;它代表了人工智能领域的一次飞跃。作为一种多模态模型,Gemini不仅能够理解文本,还能够无缝地理解图像、视频和音频。根据Google DeepMind的首席执行官兼联合创始人Dennis Hassabis的说法,Gemini经过精心设计成为多模态,使其能够在文本、代码、音频、图像和视频等各种信息类型之间进行泛化和操作。其能力扩展到在数学、物理和编码等领域执行复杂任务。
开发与合作 Gemini是谷歌内部各个团队广泛合作的结果,包括来自谷歌研究和Google DeepMind的贡献。作为谷歌迄今为止最先进的人工智能模型,Gemini展示了集体人工智能专业知识的力量。
Gemini的不同版本 为了满足不同的计算需求,Gemini有三个尺寸:Nano、Pro和Ultra。
Gemini Nano:专为智能手机设计,特别是适用于Google Pixel8,该模型有效处理设备上的任务,如在聊天应用程序中建议回复或在不依赖外部服务器的情况下总结文本。
Gemini Pro:在谷歌的数据中心运行,Gemini Pro驱动着谷歌AI聊天机器人Bard的最新版本。它在提供迅速响应和理解复杂查询方面表现出色。
Gemini Ultra:虽然尚未广泛推出,但Gemini Ultra被定位为谷歌最强大的模型。在大语言模型研发的32个广泛使用的学术基准中,它在30个基准中表现卓越。设计用于执行高度复杂的任务,在完成当前测试阶段后将发布。
Google Gemini访问地址入口
目前,可以通过与Google Bard和Google Pixel8的集成来访问Gemini。随着时间的推移,谷歌计划将Gemini集成到各种服务中,包括Search、Ads和Chrome。开发人员和企业客户可以从2023年12月13日开始通过Google AI Studio和Google Cloud Vertex AI中的Gemini API访问Gemini Pro。Android开发人员将在早期预览阶段通过AICore获得对Gemini Nano的访问权限。
Gemini与其他人工智能模型的比较 与流行的人工智能模型(如GPT-4)相比,Gemini的本地多模态能力使其独具特色。而GPT-4为实现真正的多模态性依赖于插件和集成,Gemini则可以无缝执行多模态任务。Gemini专注于集成到谷歌的生态系统中,为Bard和Pixel8设备提供动力,这使其与以服务为导向的模型(如GPT-4和Meta的Llama)有所区别。
Google Gemini官网地址:https://deepmind.google/technologies/gemini/
本文来源于#站长之家,由@tom 整理发布。如若内容造成侵权/违法违规/事实不符,请联系本站客服处理!
该文章观点仅代表作者本人,不代表本站立场。本站不承担相关法律责任。
如若转载,请注明出处:https://www.zhanid.com/news/224.html