您现在的位置: 首页>> 资讯 >> 正文

谷歌PaLM 2在训练中使用的文本数据是其前身的近五倍

来源: i黑马


(相关资料图)

据外媒报道,谷歌上周宣布的大型语言模型PaLM 2使用的训练数据几乎是其前身的五倍,使其能够执行更高级的编码、数学和创意写作任务。根据CNBC查看的内部文件,PaLM 2是谷歌在I/O大会上推出的新型通用大型语言模型,它接受了3.6万亿个token的训练。谷歌之前版本的PaLM于2022年发布,并接受了7800亿个token的训练。

文章评价匿名用户发布发布
相关新闻
星火成炬 | 用热爱创造可能

松花江网,是经国家互联网信息办公室批准的国家一类新闻网站,吉林省重点新闻网站。松花江网以江城日报社的

上老下至 老毛老至

今天来聊聊关于上老下至,老毛老至的文章,现在就为大家来简单介绍下上老下至,老毛老至,希望对各位小伙伴