Google PaLM 2 在训练中使用的文本数据是其前身的近五倍。

频道:新闻 日期: 浏览:2773

  


  据界面新闻5月17日援引CNBC消息称,谷歌上周公布的大规模语言模型PaLM  2使用的训练数据几乎是其前身的五倍,使其能够执行更高级的编码。数学和创意写作任务。


  根据CNBC  审查的内部文件,PaLM  2 是谷歌在I/O  大会上推出的新型通用大型语言模型,它接受了3.6 万亿个令牌的训练。


  谷歌之前的PaLM  版本是2022 年的发布,在7800 亿个令牌上进行了训练。


0 留言

评论

◎欢迎参与讨论,请在这里发表您的看法、交流您的观点。