MacTalk
订阅
MacTalk 开通于2012年末,内容起于 Mac 而不止 Mac,内容覆盖了技术、创业、产品和人文思考。文风有趣,又有一点力量。
MacTalk微信公众号二维码
关注该公众号

会员可查看最新的全部文章

^__^ 1 / 20
有没有什么确定的方法让自己的写的内容直接进入公众号或者小红书的流量池,然后得到推荐呢?我只能说,如果你写“流量池”这个话题,进入流量池的概率会比较大 。我最近在推荐的信息流里看到好几篇类似的文章,确实阅读量很大。但是,打开作者的其他文章/笔记,都是几十几百的阅读量。说明啥呢,就是没找着秘籍呗,但假秘籍却被推荐了,说白了也是个概率问题。公众号的机制其实并不复杂,如果你有基础订阅用户,比如几万读者,写的内容又好,互动率高,时不时就会获得推荐。至于小红书,我完全搞不懂推荐机制。如果你看到一个人的点赞特别多,有两种方式可以做到:1、买薯条自己加热。钱到位一定有效果。2、删掉点赞差的小红书。我就这么干 有没有大的社交产品公开自己的推荐算法呢,以前没有,现在有了,x 刚刚开源了自己的推荐算法: https://github.com/xai-org/x-algorithm我赶紧研究了一下,这套 x 的 For You 推荐算法,大概说了哪些事儿: 1、x 的推荐都交给 Grok 模型了,大模型会根据用户的行为和兴趣推荐。 2、推荐的信息源分两部分,一部分是你 follow 的用户发的帖子,另一个是公域的内容。系统会先从用户关注的发帖中找一批出来,再从全站搜集一些用户可能会感兴趣、但没关注的帖子。把这些内容混在一起,统一丢给 Grok‑based transformer 打分,它会根据用户过去的点赞、转发、回复、点开等行为,预估你看到每条帖子的各种行为概率,然后加权成一个总分,最后挑出得分最高的那一部分,变成 For You 的信息流。 3、怎么决定先后顺序呢?并不只是“相关性分”,模型会同时预测很多行为的概率:点赞、回复、转发、点击、进主页、看视频、展开图片,以及不感兴趣、拉黑等负反馈。系统给正向行为更高权重,给负向行为负权重,合成一个总分。 4、为了防止大号刷屏,打完分之后还有权重调整,同一作者的多条帖子会被衰减。这样用户看到的时间线,会更容易混进一些中小账号,信息来源更分散一点,不会永远被同一拨人占满,也有助于打破信息茧房。 5、还有过滤算法,让用户少看垃圾、少看重复、少看自己不想看的东西。打分前,系统会先过滤掉重复帖、太旧的帖、你自己的帖、已经看过/刚刚看过的帖、被你拉黑或静音的账号、包含你屏蔽关键词的内容、你没权限看的订阅内容等。选出最终结果后,再做一次可见性过滤,去掉垃圾信息、暴力之类的帖子。知道了这些,现在,我们能写出进入推荐池的文章吗?
^__^ 1 / 18
AI 的世界真是日新月异,这才几天又一款全新的 AI 模型出现了:全球首个通用实时世界模型 PixVerse-R1。通用级PixVerse R1的技术突破 我觉得 PixVerse-R1 的发布标志着视频生成正在从“静态输出”转向“实时交互”的全新阶段。用户设定好世界观,就可以在生成视频流的过程里和 AI 实时交互,比如通过 prompt 改变地图和角色的行为。游戏、漫剧利好。 我试了一下,有 Deepseek 时刻的味道。 随着模型发布的还有一份技术报告,其中提到了三个创新性技术:Omni、Memory 和 IRE。 Omni 是一个从底层就支持多种模态的通用模型,用来做世界模型的计算基座。它用同一套 Transformer,把所有模态都编码进一条连续的 token 序列里,相当于用一条时间线来理解和生成整个世界的感知,这让不同模态之间的配合更自然、更精准。在训练上,用原始比例和分辨率来学习,不去随便裁剪、拉伸,所以画面里的构图、比例和细节都能尽量保持真实,不会被几何变形和伪影破坏。同时,模型通过海量真实视频把物理规律“学进了脑子”,比如光影怎么变化、物体怎么运动,所以它生成出来的平行世界,在光照和运动上大体是符合物理常识的。 Memory 这套机制,主要就是解决长视频里前后对不上和显存爆表这两个老大难问题。它不是一次性生成一整段视频,而是一帧一帧往后推,理论上可以一直生成下去,形成无尽的视频流。同时,它有一块专门的记忆模块,会把角色是谁、世界规则是什么这些关键信息单独记住,后面生成时直接用这份“记忆”,不用每次都从头算一遍,这样既保证了前后逻辑和物理效果统一,又不会让显存占用失控。 IRE 最有意思,可以理解为一套让模型实时响应的加速引擎,是实时响应的关键。 它做了三件事: 第一,用“时间轨迹折叠”把原来曲里拐弯的生成过程拉成一条直线,让噪声更快变成画面,把传统需要 50 多步的扩散采样压缩到 1~4 步,速度直接提升了几个数量级。 第二,用“引导校正”把各种条件约束(比如提示词、控制信息)直接融进模型内部,不再走传统 CFG 那套“双倍算力”的老路,节省算力。 第三,通过“自适应稀疏注意力”精简计算图,重点算该算的地方、略过不重要的区域,在 1080P 这种高分辨率下,还能在有限算力里给出接近即时的响应。 看起来 PixVerse-R1 是构建了一个可交互的数字世界计算基础设施,为 AI 原生游戏、实时 VR/XR、互动电影等全新媒介形态提供了新的可能性。
^__^ 1 / 17
ChatGPT Go 套餐来袭,AI 广告探索开始落地。今天下午看到 ChatGPT 面向全球用户推出了 Go 订阅套餐,也就是说,ChatGPT 现在有三种付费订阅模式了:Go、Plus 和 Pro。这两年 AI 越来越像基础设施,但算力是真的贵。国内用户可能没啥感觉,毕竟千问豆包元宝文心都是免费的,甚至 Google 的 AI Mode 也免费,但这个背后都是大厂在补贴烧钱。模型越强、上下文越长、记忆越多,模型的成本就越高。OpenAI 2025 年上半年亏损了 130 多亿,大部分都是算力成本。一个周活用户超过 8 亿的公司亏损这么多也是挺少见的。所以 OpenAI 上线 8 美元每月的 Go 套餐,显然是在争取和服务那些 0 和 20 美金之间摇摆徘徊的中间用户。还是得多赚钱才行。现在我们可以把 ChatGPT 的三档付费订阅理解成这样: Go:大众版 Plus:进阶生产力版 Pro:高阶 / 专业版 Go 用的是 GPT‑5.2 Instant,重点是「够用」和「便宜」,给你比免费多 10 倍的消息、文件上传和图像生成的额度,让它真正能融入日常:写点东西、查个问题、改改简历、生成几张图,就这么回事。Go 从去年八月份逐步上线之后,成了他们增长最快的订阅。那么,ChatGPT 的用户该用哪个档位呢?如果你的主要需求是写周报、AI 搜索、整理文章和会议记录、做轻量的学习研究,偶尔让它画几张图,那 Go 基本就够用了。 Plus 是 20 刀/月,比 Go 贵一倍多,能用上 GPT‑5.2 Thinking 这种更偏推理的模型,还有 Codex 这类编码智能体,使用额度更高,记忆更长,更适合当成一个「长期合作的 AI 同事」,还能做视频。我日常使用的是 Plus,用来干嘛呢?做商业研究,查资料,做数据分析,长推理,用 Agent,Codex 编程,画图,做视频等等,目前 Plus 是够我用了。值不值?肯定值啊,不仅能赚钱,做产品和业务,还节省了人力成本。你值不值,得自己算算。随之而来的还有探索了很久的 AI 广告:OpenAI 计划近期于美国的 ChatGPT Go 和免费用户中测试广告投放。ChatGPT Plus、Pro、Business 和 Enterprise 将继续提供无广告体验。为什么会有广告?因为我还没见过那个日活破亿的产品没有广告模式的。传统搜索,像谷歌、百度这样在搜索页面中加入广告,是过去十几年里最成功的商业模式之一,每天就像用耙子搂钱一样,现金流杠杠的。ChatGPT 为什么要给付费用户(Go)看广告呢?我推测,是因为 ChatGPT 未来的付费订阅用户可能远远超过免费用户,所以他们要探索新的广告模式。
^__^ 1 / 16
给大模型提要求的 19 个经验: 1. 不要跟大模型论你我,要给大模型提要求,目标清晰,约束要具体,越具体越能够让大模型严肃对待。越具体越能收窄大模型生成答案的概率抖动。 2. 可以想象大模型是一个压缩器(虽然原理上并不准确),它包含拥有世间一切信息,你对大模型的提问是「解压咒语」,你吟诵恰当的咒语就能从大模型中解压出完美的答案。可以把你的 Prompt 想象成解压文件,大模型的回答就是针对这个「压缩文件」的解压。如果大模型给你的答案不好,极有可能是你提供的压缩文件错了。插叙:这篇来自二爷的 2026 年度专栏:04. 给大模型提要求的几个经验 iOS 用户暂时可用链接订阅:https://note.mowen.cn/detail/tZZkq2PXw0GJxC2WU5fTR 3. 接上条,有一个理论说每个人都有七种人格,当我们跟他打交道的时候,最重要的事情是从这七种人各种召唤出那个最专业、最温和、最善良最主动的人格跟我们打交道。对大模型也是这样,它内含一万种人格,我们的精准表现召唤出最适合我们的那个人格。常用的 Prompt 结构中「角色采纳」就是其中一个方法,而且可能是最重要的方法。以前流行过一段时间的「你如果回答得好我会给你一百美金消费」「如果你说错了我会死」也是类似的思路(这些技巧现在已经过时了)。 4. 可以想象大模型一个接一个的生成 token 是一种概率收敛,随着字出来的越多,向最终输出收敛。如果你只给一个「我」,那么它有可能接「我是你爸爸」也可能接「我不整点儿硬菜给你二叔下酒我还算你三舅姥爷的好司务员吗」(可能性较小),但如果你给他一个「我是」,那么他断然不会出现第二种可能。 5. 大模型被训练时有一个隐含的前提是取悦,取悦上下文,取悦训练中看到的语料。所以如果想获得一些真正的答案,需要找到合适的咒语。 6. 不断尝试,变化不同的咒语和大模型互动,就像谈恋爱,久而久之就逐渐知道如何跟他打交道了。或者更具体地说 —— 知道他的边界在哪里 —— 让他刷盘子洗碗表现稳定,让他在两周内拿诺贝尔和平奖他很难满足预期。 7. 把模型拟人化,拟人化最关键是知道每一个人都有缺陷,可能听不懂话,可能偷奸耍滑,当然也可能犯错。除了第 3 条说的角色指定之外,还有一个方法是如果你希望他表现得像某个领域的专家,可以说一些这个领域的专业术语,会激活他的领域空间。问大模型「感冒啥时候好」和「上呼吸道感染预后」结果方向很可能会不太一样……后面的放不下了,推荐订阅我兄弟二爷的2026年度专栏,包的。