球王会怎么样
球王会app
当前位置 >> 首页 > 新闻中心 > 内部公告

服务热线:0755 28160800
地址:中国 深圳市 宝安区石岩
      街道水田社区第二工业区
业务直线电话:
(86)0755-28160800
(86)0755-29839665
(86)0755-29839692
业务传真:(86)755 2344-2951
前台电话:(86)0755-29839341 
前台传真:(86)755-2983-9345
邮箱:ytsales@kingboard.com

1750亿参数比Transformer大10倍的GPT-3为什么没人在乎?
发布时间:2023-12-02 08:51:13 来源:球王会怎么样 浏览次数:4433 [返回]

   

  OpenAI推出GTP-3具有1750亿参数,是迄今为止最大的模型,在一些天然言语基准上取得了很强的作用。但是专家们却以为,尽管GPT-3和相似的大型体系在功能方面令人形象深化,但它们并没有在研讨方面推进全球开展。相反,更多的是一种形象工程,只是证明了现有技能的可扩展性。

  上星期,OpenAI宣布了一篇论文,具体介绍了GPT-3,咱们也对论了具体的介绍。

  GTP-3望文生义,是GPT-2的升级版,具有1750亿参数,是迄今为止最大的模型了,在一些天然言语基准上取得了很强的作用。

  这么大的参数,天然需求巨大的存储空间来承载。它的存储巨细超越了350GB,是迄今为止最贵重的体系之一,练习本钱估量为1200万美元!

  当然,一个超越350GB内存、1200万美元本钱的核算量,对OpenAI来说不叫事儿,这是一家本钱雄厚的公司,不差这点儿钱,他们还跟微软合作开发AI超级核算机呢。

  但对大部分AI公司来说,尤其是AI草创企业,那就只能过过眼瘾了,1200万美元乃至或许是一家公司辛苦路演才赚到的一轮融资的钱。

  专家们以为,尽管GPT-3和相似的大型体系在功能方面令人形象深化,但它们并没有在研讨方面推进全球开展。相反,更多的是一种形象工程,只是证明了现有技能的可扩展性。

  加州大学洛杉矶分校核算机科学助理教授Guy Van den Broeck称:「我以为最好的比方是一些石油丰厚的国家能够制作一座十分高的摩天大楼,在制作这些东西时分,需求花费很多的资金和工程精力,用到『最为行进的技能』,但这个行为本身在科学上没有多少促进。就算迪拜这样的当地盖满了全世界最好的摩天大楼,也不会有人忧虑美国在制作大型修建方面会失掉竞争力。我信任学者和其他公司会很愿意在下流使命中运用这些大型言语模型,但我不以为它们会从根本上改动人工智能的发展。」

  事实上,也曾以为,没有满足的核算才能来匹配OpenAI、DeepMind和其他资金足够的实验室的公司和组织很合适从事其他或许更重要的研讨使命,比方研讨模型巨细和精度之间的相关性。事实上,他以为,这些实验室缺少资源或许是件功德,由于这迫使他们深化考虑为什么某些东西会起作用,并提出代替技能。

  长期以来,它一向断语,巨大的核算力合作强化学习,是通往AGI,或者说能够学习人类所能完结的任何使命的AI的必经之路。

  但像图灵奖获得者Yoshua Bengio和Facebook副总裁、首席AI科学家Yann LeCun这样的知名人士以为,AGI是不或许发明出来的。这便是为什么他们建议选用自我监督学习和神经生物学启示的技能,如使用高档语义言语变量的自控学习和神经生物学启示的办法。

  还有依据标明,功率的进步或许会抵消日益增长的核算需求。OpenAI自己的查询就显现,自2012年以来,在一个盛行的基准(ImageNet)中,练习一个AI模型到达相同的图画分类功能所需的核算量每16个月就会削减2倍。

  GPT-3的论文也暗示了人工智能中只是增加算力的局限性。尽管GPT-3能够轻松完结从生成语句到言语间翻译的使命,但在对抗性天然言语推理的测验中,让它担任发现语句之间的联系的时分,它的体现却没有比偶然性好得多,作者对此也有十分清醒的认知。

  前Google Brain成员Denny Britz以为,一味地寻求各个子范畴的SOTA成果,正在变得越来越多的核算密集型,这对那些不在某个大实验室作业的研讨人员来说并不是一件功德。由于有太多的稠浊变量,SOTA一般没有任何含义,它最大的含义在于发论文,以及便于评定给出高分。