📢 Gate广场 #NERO发帖挑战# 秀观点赢大奖活动火热开启!
Gate NERO生态周来袭!发帖秀出NERO项目洞察和活动实用攻略,瓜分30,000NERO!
💰️ 15位优质发帖用户 * 2,000枚NERO每人
如何参与:
1️⃣ 调研NERO项目
对NERO的基本面、社区治理、发展目标、代币经济模型等方面进行研究,分享你对项目的深度研究。
2️⃣ 参与并分享真实体验
参与NERO生态周相关活动,并晒出你的参与截图、收益图或实用教程。可以是收益展示、简明易懂的新手攻略、小窍门,也可以是行情点位分析,内容详实优先。
3️⃣ 鼓励带新互动
如果你的帖子吸引到他人参与活动,或者有好友评论“已参与/已交易”,将大幅提升你的获奖概率!
NERO热门活动(帖文需附以下活动链接):
NERO Chain (NERO) 生态周:Gate 已上线 NERO 现货交易,为回馈平台用户,HODLer Airdrop、Launchpool、CandyDrop、余币宝已上线 NERO,邀您体验。参与攻略见公告:https://www.gate.com/announcements/article/46284
高质量帖子Tips:
教程越详细、图片越直观、互动量越高,获奖几率越大!
市场见解独到、真实参与经历、有带新互动者,评选将优先考虑。
帖子需原创,字数不少于250字,且需获得至少3条有效互动
马斯克为 Grok 人工智慧新创融资 60 亿美元用来采购辉达晶片
特斯拉创办人暨首任 DOGE 长马斯克旗下的 xAI 将会以 500 亿美元的市场估值融资 60 亿美元。据 CNBC 报导,这笔资金将于下周到位,金主包括中东主权基金提供的 50 亿美元和其他投资者提供的 10 亿美元,这笔资金用来采购 10 万个辉达晶片。
马斯克的 xAI 人工智慧新创公司选择位于田纳西州的 Memphis 市打造命名为 Colossus 的超级电脑,辉达的 AI 晶片扮演关键角色,目前由十万个 Nvidia H100 GPU 组成,每个成本约为3万美元,马斯克希望继续使用辉达的晶片,并以辉达的 H200 GPU 升级该设施, H200 可扩增内存容量,但每台成本接近 4 万美元,明年夏天马斯克预备还继续采买 30 万个 Nvidia Blackwell B200 GPU 。
去年11月,xAI 推出 Grok 聊天机器人,预备与 Sam Altman 的 ChatGPT 竞争 AI 市场。马斯克本为 Open AI 的早期天使投资人,之后因与 Sam Altman 起冲突而离开,现在变成 Sam Altman 的 AI 竞争对手。
关于 xAI Grok
Grok 是 xAI 开发的人工智慧,可为各种问题提供有用且真实的答案。 Grok 的概念启发自银河系漫游指南 (The Hitchhiker’s Guide to the Galaxy)、和钢铁人东尼史塔克创造的 J.A.R.V.I.S. 人工智慧系统,宗旨为帮使用者了解宇宙科学,并可回答任何问题,据 Grok 自己说,本段解释来自于 Grok ,Grok 会诚实又不加批判的为使用者提供资讯,专注于理解与详细解释,甚至以幽默的方式或是外部视角看待人类的问题。
xAI 如何使用 Nvidia 的晶片来构建超级电脑
xAI 利用 H100 GPU 晶片,打造以人工智慧训练为目的的超级电脑 Colossus。xAI 利用 Nvidia 的 GPU 不仅获得运算力,并可使用专门的基础建设架构来加速人工智慧和机器学习,使 xAI 能够突破人工智慧研究和开发的界限。
Nvidia X Grok 的六大应用场景
大规模平行处理 (Massive Parallel Processing):Nvidia 的 GPU(H100)专为平行处理而设计,对于 AI 模型训练所需的复杂运算至关重要,这些晶片可同时处理数千笔操作,加速 Grok 大型语言模型 (LLM) 的训练过程。
扩展性 (Scalability):超级电脑 Colossus 初由十万个 Nvidia H100 GPU 组成,使 xAI 能够管理大量的运算工作负载,远远超出典型的 CPU 处理功能,并计划增加一倍数量,达到20万个 GPU(包括 H200 晶片)。
能源效率 (Energy Efficiency):大规模的运作对能源的需求很高,但与传统 CPU 相比,Nvidia 的 GPU 对于 xAI 运作的工作负载更节能。
网路基础设施 (Network Infrastructure):超级电脑 Colossus 运用 Nvidia 的 Spectrum-X 乙太网路平台,透过提供低延迟、高频宽连线来支援多租户。
AI 的高阶功能 (Advanced Features for AI):Nvidia 的 H100 和 H200 晶片配备了专为 AI 定制的功能,包括高速记忆体(分别为 HBM3 和 HBM3e),可减少记忆体与 GPU 运算核心之间的资料传输时间。此功能对于资料移动可能成为瓶颈的人工智慧工作负载非常有用。
软体支援 (Software Support):Nvidia 提供 CUDA 平行运算平台和程式设计模型,xAI 使用 CUDA 开发应用 AI 演算法。
这篇文章 马斯克为 Grok 人工智慧新创融资 60 亿美元用来采购辉达晶片 最早出现于 链新闻 ABMedia。