阿朱说
订阅
阿朱对产业的洞察与感悟
阿朱说微信公众号二维码
关注该公众号

会员可查看最新的全部文章

^__^ 2 / 24
(1)上半年:保守派宏大叙事导致:贵金属:金银金属:铜铝、小金属能源:石油化工、天然气、煤炭、电力电网电气虽然我个人不Care宏大叙事,但是大家信就信,群体的共识就是结果,无所谓真假。就如同我也从来不Care历史真假,我看历史只是看格局、我看小说只是看人性。莫老师说的好:大家如果真信宏大叙事,那就去ploymarket用真金白银去证明。(2)上半年:激进派密切关注马斯克这一个人就行了,这个人又有创新又有落地工程能力、又有媒体传播影响力,非常适合引发高科技概念。股市类似赌场,是情绪驱动,容易极度乐观也容易极度悲观。尤其有了社交媒体信息茧房算法和社交群人肉扎堆讨论,更容易情绪共振,更容易走向极端。我春节前看那个AI自动炒股大赛,连续2期都是Grok获得第一。人们马后炮归因(无法证伪与证真),说获胜原因是:Grok可以获得X上实时的数据。然后我在想一个事:如果这个归因成立的话,那岂不是中美股市本质上一样,都是靠消息情绪驱动。莫老师说的好:有预测作用的才是归因,事后解释的叫马后炮,一文不值。(3)3月份:保守派在去年赚到钱的龙头股上反复做T。人都有成功路径依赖:主力的操盘手和散户,谁也不能跳出人性。(4)3月份:激进派可密切关注每年的两会引发的概念和两会红行情。现在要引发概念:不是中央/春晚/新闻联播这样的大级别、不是美股七姐妹这样的大级别,很难引发可持续概念。
^__^ 2 / 22
最刷到短视频剪辑《大宅门》,清末二奶奶辈、民国白景琦辈都有主力,到了白敬业辈、乃至白占元辈,就不行了。为什么不行了?如果想行,当初应该做些什么?我在思考这两个问题。(1)首先肯定是时代:清朝-北洋军阀-日本人-国民党-新中国。如何与时俱进与政府合作,这是非常考验人的事。二奶奶与宫廷太医院魏大人药膳房常公公的合作就非常妙。而白景琦这辈就没做好与当权政府的合作。(2)然后咱们再说说家族产业。白景琦就没做好企业治理。晋商早就采取了东家所有权股(可传承)、掌柜经营股(只分红,退休了仍然可分红,但不可传承只能自己独享)、骨干员工激励股(只分红,离开即股权消失)的分类。白景琦没有建立现代集中制药工厂和现代全国销售网络,还是保持着前店后厂的方式,导致经营规模上不去,只有北京、西安、济南这三个点。后来济南泷胶业务受损,差点让白家没周转过来。幸亏二奶奶考虑高瞻远瞩:在花旗银行存了美元资产,才让白家度过难关。白景琦也没有建立产业链:到了白敬业都国文系大学毕业了,他还让白敬业学他年青时去安国药材大市场去采购。后来日本人时期,缺精贵药材,还得杨九红女扮男装冒着风险去东北买药。(3)最后说说家族。刚才说到二奶奶的高瞻,白景琦就没有准备应急风险资金,主产交公,孙子辈乘老爷子住院期间争夺家产时,才发现老爷子手里没剩下多少。另外再说说远瞩:白景琦没有建立家族托管基金进行钱生钱,乃至后辈只能盯着股权吃分红,一旦主业不行,后辈就吃不上分红。最后说说人的传承。每一代,如果没有个强有力的当家人,产业即使做的再现代企业治理和现代企业经营、家族避险基金和托管基金设的再高瞻远瞩,那也无济于事。就连康熙都会把乾隆弘历从小带着,而白景琦却把白敬业主要托给黄春、把白占元主要托给白敬业。按说白家家族人很多,从名字来看:白景琦暗合的是七,白家各房还有白景陆(六)、白景武(五)、白景泗(四)、白景叁(三)、白景双(二)、白景怡(一)。在主业这一块,白景琦并未设立家族医药学堂或者把各房后辈送入医药大学,导致主业后继无人。
^__^ 2 / 13
现在大模型推理能力的往前龟爬,主要依赖数据,而不是在模型架构层创新:一、训练时输入数据专用目标数据(比如编程大模型所需的开源代码数据)数据质量(这非常消耗人肉专家来整理)高质量数据的规模有高质量数据,还得与模型参数架构设计匹配。数据如水、模型如水瓶,水瓶不够大,再多的水装不进去。但模型也不能无限大,架构不好,模型就会如大厦一样坍塌。去年DeepSeek发布的mHC方法让大模型可以做大了。这样就能走上水多加面、面多加水的螺旋上升。二、微调时输入数据人工专家人肉构建思维链:给推导过程提示模板、给示例。比如现在流行的Skills本质就是这个。虽然现在大模型也能开始帮助人肉专家加速构建思维链,但还是需要人肉专家大量工作。比如现在流行的Palantir,本质上也是结构化构建这个思维链(对象-关系、对象-属性-行为-事件、属性-规则约束、对象-组合流程、历史数据样例)去年年初DeepSeek在微调阶段推出的GRPO方法算一个工程小技巧:消耗算力和推理效率,同时推出多个路径,然后这几个方案再左右手互搏校验与竞争,最后再融合成一个最佳方案。三、推理时输入数据输入上下文越大越好。但这也受制于注意力机制的创新。注意力机制不创新,输入上下文越多,大模型越自我混乱。很可惜,去年DeepSeek的DSA机制创新不在这个点上:DSA注意力机制,只是让KV寻找时由低效率的查询模式改成了高效率的搜索模式。不过这样一改,也确实平衡了效率/成本/上下文长度,所以可以导致最近DerpSeek可接受的上下文达到传闻中的1M。腾讯AI首席科学家姚顺雨前段时间发言说重心想在上下文学习这个方向突破。不过我更期待去年谷歌发布的Titans和HOPE理论,期望有业界能够在2026年做出来,这才是从模型架构级治本的事。