24小时热文
GPT-Image-2 出来之后,我在刷手机的时候,常常会有种很不对劲的感觉。看到一张普通的照片,脑子里总会突然冒出一个念头:等等,你这图保真吗?如果放在三年前,我们还能用一种居高临下的姿态安慰自己。那时候的 AI 生图,精美、平滑、却带着一股「塑料感」。你只要盯着画面多看两眼,总能发现端倪。但这次不一样了,它做出来的图,光影、质感,还有人脸,都跟真的一样,就连真实照片里那种不经意的凌乱、不完美,它也能模仿得惟妙惟肖。我们经常说眼见为实,是因为它是现实的「倒影」。但如今你在网上看到的现实逼真画面,很有可能是一堆代码和概率模型的手笔,跟现实中真实发生过的事毫无瓜葛。并且伴随着造假门槛的降低,以前想做一张假的现场图,得会用 Photoshop,得找素材,还得花不少时间。现在倒好,敲几句话,几十秒就能出图,非常轻易地让人觉得「是截图,这下不得不信了。」于是真要分辨这图是真是假的人,花的时间和精力不仅没少,反而更多了。如果 AI 仅仅是制造了更多的假图,我们或许还能开发出更强的检测工具来应对。真正可怕的,是「怀疑」本身变得极其廉价。要让人相信一件事很难,得有完整的说法,还得经得住追问。可要是想让人产生怀疑,就容易多了,只要让人家觉得「说不准」「不好说」「AI 生成的」,就够了。当制造怀疑的成本趋近于零,别有用心的人根本不需要处心积虑去传播某个具体的谣言。他们只需要把水搅浑,源源不断地向信息流里倾倒真假难辨的内容,最终的结果,就是大家在混乱里疲惫地放弃思考,放弃判断。面对这种没有具体靶子的不确定性,你想反驳,都不知道该反驳什么。维特根斯坦在《论确定性》中有一个著名的「门轴」比喻:一扇门要想自如转动,门轴必须是固定不动的。我们的思考和怀疑也是如此。人和人能坐下来一起商量事、讨论社会上的问题,最基本的前提是,我们活在同一个现实里,对最基础的事实有着一致的看法。怀疑是建立在某些不被怀疑的东西之上的。而当真相需要被反复验证,当每一张照片都得先自证清白,它作为共识基础的力量就已经消耗殆尽了。我们失去的,不只是辨别真假的能力,还有一起讨论「什么是真的」这件事本身的可能性。 一只弱鸡想作弊 12万的墓碑和399的AI永生,你怎么选 “Kimi发了陌生简历给我”,用AI用出彩蛋了 官宣姆巴佩,补水啦不装了 他们想做让14亿中国人都用得起的“律师” 国资怎么又开始卖酒店了? 告别增长空谈,营销幕后的落地推手 日本社会,为什么低效 真正的龙虾平权,是零门槛的全民生产力
年费限时8折
所有数据均采集于网络,如有侵权请联系站长删除
粤ICP备18050166号-1