【本账号下内容为小组成员共同创作的产物,原作者署名请参见文末】
起因其实是周一(2024 年 8 月 5 日)全球各地股市的大跌。
我在上周五的时候预判了周一可能出现大跌,并且原先有准备去做空Intel和Nvdia。
具体的判断过程和原因就不展开细说了,但我当时锚定的标的是「人工智能」、「芯片」以及相关产业链的下游。
为避免有人认为我是信口开河,发一个相关的聊天记录的截图作为佐证。
遗憾的是,周末因为各种琐事缠身,于是错过了这个机会。
现实情况是,Nvdia周一开盘时跌14.18%,Tesla 10.81%,Apple 跌9.45%。
关于 Intel 酷睿13 代 与 14 代 CPU出现问题的报道,我随手搜了一篇,链接放在下面,以供不清楚情况的伙伴作为背景资料阅读:
AMD由于质量问题延后锐龙9000上市时间
25日讯,AMD宣布,由于在最终检查流程当中,发现最初制造的一批锐龙9000系列处理器,没能达到“对质量的完全期待”,因此决定延后上市时间,目前也已召回所有先前向全球零售业者与OEM出货的产品。
其实芯片设计可以说是当前人工智能运用最为深入的领域之一。
如果将所有情况抽象到一定高度,我们似乎可以得到一个这样的结论:
AI 事实上已经通过如下这样的这个循环实现了自我迭代。
参与芯片设计
↓
提升算力
↓
进一步提升芯片设计效率
而这,也是我和我身边不少朋友一直觉得「奇点将至」的原因。
今年早些时候(5 月)MIT的一名助理教授Phillip Isola和三个亚洲博士生一起做的关于不同模型训练相似度的研究,发在了ICML 2024上。
文章本身的内容并不复杂,角度很新颖。这几位科学家通过对多种AI模型训练研究后发现:这些AI模型对现实的表示,特别是在深度网络中的表示正在趋同。
首先,随着时间的推移和跨多个领域,不同神经网络表示数据的方式变得越来越一致。接着,文章展现了跨数据模态的趋同:随着视觉模型和语言模型的规模增加,他们在测量数据点之间的距离方面变得越来越相似。然后作者假设这种趋同性会导致一个共享的统计现实模型,类似于柏拉图的“理念论”。最后讨论了这些趋势的影响、局限性和反例。
现在的人工智能大模型,随着训练的内容越来越丰富,对于不同知识的表示会越来越接近。他们比较了78个计算机视觉的模型,虽然训练数据集、任务目标和算法架构都不一样,训练程度越高的,表征的相似度就越高。
用通俗一些的说法:越强的模型越像,越弱的模型越是千奇百怪。
用乐观一些的说法来讲,人工智能终于敲在了认识论的大门上。
有兴趣的伙伴们可以去阅读下原文,也可以去阅读下费斌杰的解说。
没有任何知识是无用的,问题往往是当机会出现在你面前时,能否把握的住。
Seldon Plan © 2024 by Merlin is licensed under CC BY-NC-ND 4.0
许多我们习以为常或者说视若无睹的概念
恰恰正是我们的思维误区所在
而我们看待这个世界的方式决定了这个世界如何回应我们
所以,请终生学习,持续成长
无论处于人生的哪个阶段,生活是否如意
都不要停下拓展认知边界和完善思维模式的脚步
致敬每一个专注于自我和致力于提升自己的人
原作者署名
Merlin
评论区
共 条评论热门最新