【资料图】
AlphaGo:第一个击败人类世界冠军的围棋程序。AlphaGo的成功标志着AI在处理复杂策略游戏方面的重大突破。
AlphaZero:AlphaZero 是一个通用的强化学习算法,可以在没有任何先验知识的情况下,仅通过自我对弈学习如何玩棋类游戏。AlphaZero已经证明了其在国际象棋、将棋和围棋等游戏中的超强实力。
AlphaFold:AlphaFold 是一个可以预测蛋白质结构的深度学习系统。这个系统的准确性在生物学领域引起了广泛关注,因为它可以帮助科学家更好地理解疾病,并加速药物的发现和开发。
WaveNet:WaveNet 是一个深度生成模型,用于生成自然 sounding 的语音。它已经被广泛应用于语音合成和音乐生成等领域。
MuZero:MuZero 是一个无模型强化学习算法,它可以在没有环境模型的情况下,通过预测其动作的结果来学习策略和价值函数。MuZero 已经在多个任务和游戏中表现出了超强的性能。
DeepMind 在强化学习方面的深厚经验可能会为 Gemini 带来超越 ChatGPT 的新能力。Hassabis 表示,Gemini 模型仍在开发中,这个过程将需要几个月的时间,可能花费数千万或者上亿美元。作为对比 OpenAI CEO Sam Altman 在四月份表示,创建 GPT-4 的成本超过了 1 亿美元。Gemini 不仅仅是对 ChatGPT 做出的防御之举,还将是 Google 未来部署搜索等产品的技术基础。Hassabis 表示,AI 的非凡潜在益处,例如健康或气候等领域的科学发,人类必须不停地发展这项技术。如果运用恰当的话,AI 将是对人类最有益的技术。我们必须大胆且勇敢地去追求那些东西。Google 不为人知的「护城河」在 AI 研究方面,Google 还有一张盖住的王牌——全球最大的视频网站 YouTube。视频是个非常多元的内容载体,我们可以把它分解成图像、音频和文字记录。Google 拥有 YouTube,也就意味着拥有最丰富的图像、音频训练内容。根据 The information 报道,有内部人士透露 OpenAI 早已经悄悄地使用 YouTube 上的内容来训练其人工智能模型。Google 自然不会忽视这座「金山」,The Information 继续爆料称 Google 的研究团队也在利用 YouTube 训练 Gemini 模型,并且 Google 能够比竞争对手们获得更完整的内容数据。对于大语言模型来说,高质量的训练数据比黄金还要宝贵。由于 YouTube 很多都是真实的对话,Google 可以利用 YouTube 视频的音频文本或描述作为训练 Gemini 的另一个文本来源,从而提高它的语言理解能力,并产生更加真实的对话反馈。利用 YouTube 的视频内容,Google 还可以开发出类似于 Runway 用文本生成视频的多模态功能,用户只需要输入他们的描述就能生成出一条精美的视频。除了制作视频,多模态模型还可以有更多的可能性,例如可以根据 YouTube 视频直接总结出球赛的亮点,或者根据视频帮助机械师诊断汽车修理问题。OpenAI 在发布 GPT-4 模型时,曾展示过从草图生成网站代码的功能,这也是多模态模型的一个重要应用领域。前 YouTube 高管 Shishir Mehrotra 表示,对 Google 来说,YouTube 视频简直就是一座数据金矿。这不仅仅是因为视频的存在,而是因为视频存在于一个生态系统中。YouTube 上的视频向 AI 展现了了人类是如何进行对话,这和书面化的文本有很大的不同,可以帮助模型更好的理解人类对话的逻辑,并生成更恰当的反馈。不仅如此,Google 还收集大量的用户互动数据,清楚用户对视频的那些部分最感兴趣、哪些部分容易跳出、哪些内容会吸引用户评论等等。据统计,YouTube 每分钟就有 500 小时的视频上传到网站上,Google 可以说是坐在了一座会源源不断生产金子的金山上,这或许会成为 Google 真正的护城河。多模态才是未来随着多模态模型越来越受到重视,未来会有更多的开发人员选择用视频训练语言模型。AI 教父、Meta AI 首席研究员 Yann LeCun 在近日一条推文中称:「通过视觉学习世界如何运转的系统,将对现实有更深刻的理解」,并称赞了 Meta 在这一领域的研究成果。著名风投机构 A16Z 在最近采访了四家明星 AI 公司 AnthropicAI、Cohere、Character AI、AI21Labs 的 CEO 和创始人,探讨出生成式 AI 当前最需要突破的四个方向,分别是操控、记忆、四肢(访问浏览器等)和多模态。这四项关键关键创新将主导 AI 在未来 6 个月到 12 个月的发展,这也会影响公司和开发者改变构建产品的方式。Cohere 的 CEO Aidan Gomez(著名论文《Attention is all you need》的主要作者之一)表示,AI 系统的能力终究是有限的,因为并非所有的内容都是文本形式,因此多模态能力对于大语言模型来说是个重要的发展方向,像 GPT-4、 Character.AI 和 Meta 的 ImageBind 等模型已经在处理和生成图像、音频等内容。我们现在的模型确实是字面意义上的「盲人」,这需要改变。Aidan Gomez 在采访中总结道。多模态模型能够极大地拓宽 AI 的应用场景,例如可以用在自动驾驶汽车或其他需要与物理世界实时交互的场景上。此前,Google 在 I/O 大会发布的 Med-PalM-2 模型便展示过可以分析 X 光照片的能力。这也让人更加期待,更强大的 Gemini 能在多模态领域给我们多大的惊喜。现在看来,暂时取得领先的 OpenAI,远没有到停下来休息的时刻。点击「在看」
是对我们最大的鼓励