第3期 - 苹果和菜

第3期 - 苹果和菜
这期的封面拍摄于厨房,这些苹果里面,大的是朋友送的,原因是他家院子里面长了很多,根本吃不完,这个口感偏软偏面,像是小时候吃过的山上的野苹果;中等大小的是在附近的公园里面“拿”的,还带着叶子,树上的苹果非常的密,参考下图。
最小的那几个是在马路边上“捡”的,骑车路过那棵树好几次了,但是由于是上坡,懒得停下来,这次终于是摘了几个下来。
中等个头和小的基本上不能吃,涩涩的,光剩下长得密了。
好消息是葱长得非常成功,就是把超市里的菜剪到只剩个头左右,然后栽进盆里,差不多一周左右就长到15厘米左右了。
基本上可以实现吃葱自由了,剪成小段小段,然后放进冷冻室,吃的时候撒一把,跟新鲜的相差无几。
🤖 AI产品
这周简单体验了两个产品,一个是Nano Banana,另外是字节跳动旗下的即梦SeeDream 4.0,这两个产品给我最大的印象都是consistency,也就是一致性。
🍌 Nano Banana (Gemini 2.5 Flash)
玩法上没有什么可以说道的,毕竟总体上就是言出法随的特性。我觉得AI发展到现在,除了那些花里胡哨的功能,更多的是在简化我们的生活,让我们的生活更加简单。
比如用Nano Banana根据自己的日常照片生成证件照,这就是我觉得AI好的以及有益的用法。
使用方法:
生成红白蓝三种底色的证件照
如果效果不理想,可以尝试将”证件照”换成”Passport风格的照片”。
🎨 SeeDream 4.0
同样是卷一致性的怪物,并且像素能够达到4K,基本上可以跟单反拍出来的质量掰掰手腕了。
不过但凡是Diffusion Model,都有一个通病:生成本质是全局性的,而一致性要求是局部性的,两者天然冲突。保持consistency就像要求一位”重新绘画的艺术家”在大幅修改局部的同时,保证整幅画的其他部分一笔不差,这在算法和语义层面都非常困难。
牵一发而动全身的真实写照。
🔬 技术捣鼓
最近在研究TimeFM,我个人觉得这属于LLM领域里面的一个偏门,因为Google发布的开源模型,最大的也不过才2GB。
⏰ TimeFM vs 传统LLM
同样最小的大语言模型的计量单位起码都用B,而TimeFM的参数量还停留在M的阶段,但是又不可否认它的确可以算是Foundation Model,还能跟LLM、Agent等挂上钩,Google那个我试了试效果还行。
📈 Kronos金融大模型
项目地址: 🔗 GitHub - Kronos
Kronos是清华大学发布的一个金融大模型,K就是K线的那个K。
这类型大模型也用的Transformer结构,但跟文本大模型不太一样,那就是模型体量比较小,但是训练数据一般很大,指数在11-12左右。
我个人猜测是时间序列本身的pattern种类就比较少,模型太大反而会导致过拟合,而模型太小则会导致信息丢失。
实践教程: 🛠️ TimeFM和Kronos实战运行指南
如果大家感兴趣可以试试看。