你的位置:云开全站app网页版官方入口 > 新闻中心 > kaiyun官方网站AI 模子从海量数据中学习模式;后磨练阶段-云开全站app网页版官方入口
IT 之家 1 月 8 日音讯,在拉斯维加斯举行的海外消费电子展 ( CES ) 上,英伟达 CEO 黄仁勋在一次面向万东说念主的主题演讲后领受 TechCrunch 采访时透露,其公司 AI 芯片的性能擢升速率已远超数十年来鼓励筹算机技巧越过的"摩尔定律"设定的圭臬。
"咱们的系统越过速率远超摩尔定律,"黄仁勋周二透露。
据 IT 之家了解,"摩尔定律"由英特尔聚拢独创东说念主戈登・摩尔于 1965 年提议,预测筹算机芯片上的晶体管数目将大要每年翻一番,从而使芯片性能也大略翻一番。这一预测基本完了了,并在几十年里鼓励了筹算机性能的快速擢升和本钱的急剧下落。
连年来,"摩尔定律"的发展速率有所放缓。关系词,黄仁勋宣称,英伟达的 AI 芯片正以自己的加快节拍发展;该公司透露,其最新的数据中心超等芯片在运行 AI 推理责任负载方面的速率比上一代居品快 30 多倍。
"咱们不错同期构建架构、芯片、系统、库和算法,"黄仁勋说,"要是这么作念,咱们就能比摩尔定律更快地发展,因为咱们不错在统共技巧栈中进行立异。"
英伟达 CEO 发表这一果谏言论之际,正巧好多东说念主质疑 AI 发展是否停滞之时。包括谷歌、OpenAI 和 Anthropic 在内的率先 AI 践诺室皆使用英伟达的 AI 芯片来磨练和运行其 AI 模子,而这些芯片的越过可能会悠扬为 AI 模子才气的进一步擢升。
这并非黄仁勋初次暗意英伟达正在荒芜"摩尔定律"。早在旧年 11 月的一次播客节目中,黄仁勋就曾提议 AI 寰宇正以"超摩尔定律"的速率发展。
黄仁勋还挑剔了" AI 施展放缓"的不雅点。他合计,刻下 AI 界限存在三大扩张定律:预磨练(pre-training)、后磨练(post-training)和推理时筹算(test-time compute)。预磨练阶段,AI 模子从海量数据中学习模式;后磨练阶段,通过东说念主类响应等格局微调模子;推理时筹算则让模子在恢复每个问题后有更多时分"想考"。黄仁勋强调,跟着筹算才气的擢升,AI 推理本钱将逐渐裁汰,访佛于摩尔定律鼓励筹算本钱下落的历史进度。
英伟达的 H100 芯片曾是科技公司磨练 AI 模子的首选,但当今科技公司愈加关怀推理,一些东说念主运转质疑英伟达奋斗的芯片是否还能保捏率先地位。
面前,使用测试时筹算的 AI 模子运行本钱奋斗。有东说念主牵挂 OpenAI 的 o3 模子(使用了限度化的测试时筹算)对大多数东说念主来说过于奋斗。举例,OpenAI 使用 o3 在一项通用智能测试中达到东说念主类水平的分数,每项任务耗尽近 20 好意思元。而 ChatGPT Plus 的订阅用度为每月 20 好意思元。
在周一的主题演讲中,黄仁勋像举着盾牌通常展示了英伟达最新的数据中心超等芯片 GB200 NVL72。这款芯片在运行 AI 推理责任负载方面的速率比英伟达之前最畅销的芯片 H100 快 30 到 40 倍。黄仁勋透露,这种性能的飞跃意味着像 OpenAI 的 o3 这么在推理阶段使用大皆筹算的 AI 推理模子,其本钱将跟着时分的推移而裁汰。
黄仁勋透露,他总体上专注于创造性能更强的芯片,而性能更强的芯片从长久来看会带来更低的价钱。"不管是在性能还是本钱承受才气方面,测试时筹算的径直惩处决策是提高咱们的筹算才气,"黄仁勋透露。他指出,从长久来看,AI 推理模子不错用于为 AI 模子的预磨练和后磨练创建更好的数据。
在畴前一年里,咱们确乎看到了 AI 模子的价钱大幅下落,部分原因是英伟达等硬件公司的筹算技巧冲破。黄仁勋透露,他瞻望这种趋势将跟着 AI 推理模子的发展而不息下去。
黄仁勋宣称他今天的 AI 芯片比 10 年前的居品好 1000 倍。这是一个比"摩尔定律"设定的圭臬快得多的速率kaiyun官方网站,黄仁勋透露他合计这种速率莫得罢手的迹象。
Powered by 云开全站app网页版官方入口 @2013-2022 RSS地图 HTML地图
Powered by365站群