谁是Chatgpt舞台上的最大赢家?

- 编辑:365速发登录入口 -

谁是Chatgpt舞台上的最大赢家?

ChatGPT阶段大赢家是谁?尽管公众不确定chatgpt方法的出现是多么重大的变化,但它不会影响全球技术公司“摆脱”某些人的热情。在A共享市场中,Chatgpt概念股票继续持续下去,在美国也是如此。 NVIDIA拥有最多的AI和技术能力,从美国股票的股价从2023年交易的第一天,在1月3日的股票价格上涨到143.15美元。在ChatGpt的帮助下,股价在2月14日的近距离上高达52.20%。在下降周期内,该股票在Semiconductor行业的背景下实现了。 Chatgpt需要什么样的AI芯片?为什么Nvidia是获胜者?为什么GPU是首选?看起来不错的AI技术商业化的开发始终低于预期。但是,Chatgpt设定的渴望已成为对未来AI商业化领域的最新想象。 Chatgpt是Openai在Novem发行的AI产品BER 2022 -Dialogue机器人,可以通过研究和理解人类语言来实现人类对话。与以前出现的最大区别,例如Apple Siri,人力计算机对话并没有变化/最小。 CHATGPT可以根据人类反应在上下文信息中建立逻辑联系。因此,Chatgpt不仅可以执行个人搜索任务,还可以执行逻辑分析。它还可以自动生产各种文档,这些文档不少于基于各种主题的人类智能,例如论文,新闻和各种ULAT等,并且还可以完成自然语言活动,例如高级辅助编程。这种“高度聪明”的应用程序工具在爆炸中是无与伦比的:在发布的两个月内,每月活跃的ChatGPT用户达到了1亿,成为历史上增长最快的消费者应用程序。这种“热”不仅是C-End用户独有的。巨型领先技术SUCH作为Microsoft和Google,包括Baidu和Alibaba等国内技术公司,最近在Chatgpt Field宣布了其财务和技术布局。例如,微软已经以100亿美元的价格投资了Openai,而Google刚刚发布了Bard的自我开发模型。从基础技术的角度来看,Chatgpt是基于变压器体系结构的预训练的语言模型。模型范围可以通过称为“模型开发”的大量语料库数据自动训练语法结构和语句结构。 CHATGPT应用程序和AI表达式路径的主要功能或语言模型是通过大量数据进行预处理,然后您将根据用户说明了解C-End用户语言指令,或者进一步生成相关的文本结果和输出文本。目前,AI生成模型主要分为两类:一个是语言类代表chatgpt,另一种是由扩散模型表示的图像类型(扩散)。为了确保ChatGpt变形金刚的影响(了解语言的语义和逻辑输出),必须具有大规模的语言模型,尤其是LLM(大语言M)ODEL)。此大型模型具有许多TAG参数,这很容易称呼NPU。技术论文表明,CHATGPT参数的数量达到了1750亿。如果使用标准的浮点数,则覆盖的存储空间可以达到700GB。例如,遵守chatgpt参数和所需的变压器效果,计算硬件单元需要哪些类型或技术要求?简而言之,它需要三个要求:共享计算,内存/带宽容量和计算能力。首先,独立培训显然没有资格满足CHATGPT影响要求,因此需要共享计算;其次,在大型C的过程中除了计算的高强度外,共享计算节点之间的传播数据也非常重要。它提出了相互关联的节点数据的非常高的带宽要求。第三,内存能力,很容易理解。进行大规模的数据训练和分发计算节点存储空间确定节点数据的音量。数据顺序越大,AI训练的效率越高,结果越自然。显然,满足ChatGpt需求的AI芯片不主要在CPU中,而是GPU包括NPU。所谓的NPU是一个嵌入式神经网络处理单元。神经网络不是指算法,而是特征是采集方法。决定神经网络质量的主要因素在于可以培训多少数据。在Katunlord中,当今的建模不是算法,而是数据的合规性。简而言之,深度学习将功能视为黑匣子,并且执行非常复杂的操作转换为原始数据的景象:数据输入后,神经网络会自动检索功能。这些功能将使机器能够理解其含义,并根据不同的技术目标确定哪些功能最合适。因此,在深度研究中解决的主要问题是获取功能。 NVIDIA的最大赢家对舞台的影响需要共享的计算,内存/带宽容量和计算强度以确保这一点。它确定CHATGPT计算强度的需求不仅仅是GPU。除了上述原因外,另一个关键点是,在本世纪初,CPU很难继续保持50%的年度绩效改善。目前,包含数千个核心的GPU可以利用其自然类比来继续提高性能。更重要的是,GPU多核结构更适合于高频率是深度学习活动。例如,基于多核结构,NVIDIA启动了Triton解决方案。 Triton范围支持分发训练和分布式理解,大型模型的计算强度在许多部位都可以腐烂,并为其提供许多用于相应处理的GPU,从而解决了一个问题,即由于参数过多,单个主要的GPU存储器将无法适应。作为Karagdagan,语言类生成模型的主要计算类型是矩阵的计算,矩阵的计算始终是强大的GPU点。值得一提的是,GPU的缩写是第一家或指定的公司,尤其是Nvidia。 1993年,Huang Renxun和其他三个电气工程师Co由NVIDIA在游戏市场中大部分提供了图形处理器。 1999年,NVIDIA推出了图形卡Geforce 256,将图形处理器称为“ GPU”。但是,AdditioN对于硬件本身,NVIDIA还拥有NVIDIA在2006年启动的CUDA软件开发平台,以支持开发人员使用熟悉的高级编程语言(例如C语言/Java)生产深入的研究模型,可以灵活地致电ThenVidia GPU计算能力,并提供一系列工具,例如数据库,程序,程序和API Interfaces和Api Interfaces。可以说,NVIDIA在 - 深度研究和AI培训的计算领域中很少有竞争对手。因此,当Chatgpt仅迈出了商业探索的第一步时,该行业期望这一点。 IDC亚太研究研究主任Guo Junli最近告诉媒体,在当前的Chatgpt AI级别,最终的计算功耗高达3640pf-DAYS,它需要至少10,000个NVIDIA高端GPU来支持它。所谓的3640pf天意味着计算每秒1万亿次,并且需要进行3640天的持续操作。所以郭朱丽预测Chatgpt可能会驱动与Nvidia相关的MG Salesa产品12个月,达到35亿美元至100亿美元。 Nvidia似乎已成为Chatgpt的最大赢家,但它没有像AMD那样的对手。近年来,该公司一直在GPU将军领域关注NVIDIA,并迅速发展。 2022年,AMD数据中心业务部的转移迅速增长了64%。也有英特尔。目前,英特尔已在GPU市场上推出了针对数据中心和AI中心的XE HP体系结构,以及用于高性能计算的XE HPC架构。当然,由NVIDIA GPU的普通一般所有权酌情决定,该公司在商业化的早期阶段很长一段时间以来很可能是主要的聊天受益人。 NVIDIA首席执行官Jensen Huang最近指出:“ Chatgpt的出现与在移动领域中很清楚'iPhone'的出现。这一刻是技术领域的里程碑,因为现在每个人都可以将有关移动计算的所有想法带入产品。 “