MoreRSS

site iconafoo | 王福强修改

连续创业者,20多年互联网与金融技术经验,前阿里巴巴高级技术专家,现福强科技CEO,分享技术、管理、商业和AI知识。
请复制 RSS 到你的阅读器,或快速订阅到 :

Inoreader Feedly Follow Feedbin Local Reader

afoo | 王福强的 RSS 预览

M4芯片上跑了下KVectors向量数据库的性能测试,没想到…

2025-12-02 00:00:00

M4芯片上跑了下KVectors向量数据库的性能测试,没想到… -王福强的个人博客:一个架构士的思考与沉淀

M4芯片上跑了下KVectors向量数据库的性能测试,没想到…

王福强

2025-12-02


正好前阵子有哥们儿给了我台M4,就用它来跑下KVectors向量数据库的性能测试,预期肯定比我这老Intel款MBP强,但强到我看到这个结果还是好好数了下数字的个数🤣

search 10000 vectors in 4399 milli
press any key to exit...

平均0.4毫秒 😆

不过这个性能结果还算符合预期啦,毕竟之前在老款Intel芯片的MBP上跑IVF_FLAT索引测试,结果也是1.1毫秒 ~ 1.3毫秒这个区间, M4再怎么样硬件性能上要好的多得多。

不过M4在IVF_RABITQ索引的向量集合测试上折戟了,我还不确定是为啥:

=> M4 上kvectors IVF_RABITQ性能测试

search 10000 vectors in 381487 milli // without indexing 
press any key to start to build index
...
search 10000 vectors in 206182 milli
press any key to exit...

为啥感觉性能还不如intel款的老MBP测试的性能?! 我记得之前是13毫秒左右,这个直接干到了20毫秒左右。

向量压缩后做ANNS反而慢了?!

可能百万级别不值得搞向量压缩和ANNS?

又或者我的RABITQ压缩算法还有很大的改进空间?

Anyway,埋头拉磨的模式该休一休了,后面得多想想怎么让KVectors这款产品给客户创造价值,让客户愿意埋单 🤣




「福强私学」来一个?

「福强私学」, 一部沉淀了个人成长、技术与架构、组织与管理以及商业上的方法与心法的百科全书。

footer img for kb.afoo.me

开天窗,拉认知,订阅「福报」,即刻拥有自己的全模态人工智能。

订阅「福报」
Copyright © 王福强个人版权所有 - Since 2004 (Everything is homebrewed with Pandoc and Markdown, little Scala also included.)

KVectors向量数据库准备开源啦~

2025-11-16 00:00:00

KVectors向量数据库准备开源啦~ -王福强的个人博客:一个架构士的思考与沉淀

KVectors向量数据库准备开源啦~

王福强

2025-11-16


前阵子老王说

KVectors可以搞开源+商业服务的模式

虽然这个产品从一开始构思、设计到实现就没考虑过开源

但“听人劝吃饱饭”嘛

这几天简单思考了下

决定这样…

开源版 KVectors 向量数据库(kvectors-oss)

开源版KVectors向量数据库是最初版设计和实现,当时的设计前提是:

  1. 模型更新迭代太快,向量数据库中的向量可能因模型变更原因需要全量重新处理和存储;
  2. 数据衍生系统,所以,数据变更可以通过从原始数据源重新加载;
  3. 阶段性重新构建索引以提高性能与数据的新鲜度;

在这些前提下, 最初版的KVectors向量数据库的存储是APPEND_ONLY的,也就是只追加,不提供更新与删除等操作。(这也是前阵子金总说要基于这版打造商业方案,我心里没底儿的原因,因为还没经过实际场景检验。)

当然,除了APPEND_ONLY向量存储,还支持TRANSIENT类型的向量存储,这更多是便于测试或者用完即弃的场景。

向量索引方面,最初版支持如下索引类型:

  1. FLAT索引
  2. HNSW索引

看起来很少,对吧?

但其实这两个索引 + APPEND_ONLY 向量存储 已经可以满足大部分场景的需求,要知道头部向量数据库产品weaviate,其实也就是支持这两种索引,虽然它声称可以支持三种,但其实就是FLAT和HNSW再根据数据的生命周期再组合一下。

如果配合应用架构设计,这一版的KVectors向量数据库基本可以满足8成以上 AI 场景需求。

企业版 KVectors 向量数据库(kvectors-enterprise)

企业版 KVectors 向量数据库会在开源版基础上在如下方面进行增强:

  1. 更多的向量索引类型。除了支持开源版支持所有向量索引类型,企业版KVectors向量数据库还支持如下向量索引(Scala 版 IVF 索引和 IVF_RABITQ 索引,完全自主设计与实现!):
    • IVF(IVF_FLAT)
    • IVF_RABITQ
    • LSH
    • 更多…
  2. 更强劲的向量存储引擎
    • 支持全面CRUD操作的向量存储引擎与向量集合, 既允许用户极速向KVectors向量数据库注入高维向量,又支持根据业务场景对向量的数据与元信息进行更改。
  3. 更全面的商业服务与支持
    • 除了提供开箱即用的极速向量数据库产品,还为用户提供AI智能体与技术体系内的架构咨询与商业支持。
    • 总之,力求客户的钱花得值!

后续工作




「福强私学」来一个?

「福强私学」, 一部沉淀了个人成长、技术与架构、组织与管理以及商业上的方法与心法的百科全书。

footer img for kb.afoo.me

开天窗,拉认知,订阅「福报」,即刻拥有自己的全模态人工智能。

订阅「福报」
Copyright © 王福强个人版权所有 - Since 2004 (Everything is homebrewed with Pandoc and Markdown, little Scala also included.)

AI、开源与微服务:老王两个观点,谈谈个人想法

2025-11-12 00:00:00

AI、开源与微服务:老王两个观点,谈谈个人想法 -王福强的个人博客:一个架构士的思考与沉淀

AI、开源与微服务:老王两个观点,谈谈个人想法

王福强

2025-11-12


在我还混过一段时间大中华区运维圈的时候,

有“南王北萧”的江湖称号

这里的老王就是当时的“南王”

现在是优维的老总

“感觉有用,但用处不大”

背景是成哥的SRE群里有人讨论AI到底有没有用

老王说:“感觉有用,但用处不大”

蚂蚁的一位同学说:“非常非常有用, 一天都少不了”

这里我觉得有意思的点是,

老板可能吃老王观点的比较多,

职场人士则是后面的观点比较多,

至于为啥,

自己想🤭

“开源+企业版和企业服务”

背景是群里聊到kvectors向量数据库,

我说还没想好怎么卖,

老王说: “开源+企业版和企业服务”

咋说呢

这确实过去的经典打法,

但我从一开始就没想走这条路,

为什么呢?

一个是时代变了

一个是成本结构不一样

再一个,前面有杭州智总的前车之鉴,

我也得清楚什么是自己的优势、什么又是自己的劣势,

如果劣势补不上,

起码别把自己的优势也扔了…

微服务

发现到了AI时代,

很多同学依然喜欢用微服务来打比方,

其实,

微服务没啥问题

中台也没啥问题

但小马想拉大车,

通常成了问题。




「福强私学」来一个?

「福强私学」, 一部沉淀了个人成长、技术与架构、组织与管理以及商业上的方法与心法的百科全书。

footer img for kb.afoo.me

开天窗,拉认知,订阅「福报」,即刻拥有自己的全模态人工智能。

订阅「福报」
Copyright © 王福强个人版权所有 - Since 2004 (Everything is homebrewed with Pandoc and Markdown, little Scala also included.)

看了方三文对话段永平完整视频,谈几点给我的启发和感想

2025-11-12 00:00:00

看了方三文对话段永平完整视频,谈几点给我的启发和感想 -王福强的个人博客:一个架构士的思考与沉淀

看了方三文对话段永平完整视频,谈几点给我的启发和感想

王福强

2025-11-12


经营企业与投资企业

你不懂企业,搞投资其实也投不明白(就算赚钱了,也只是撞大运)。

智者迟疑

你看段的观点很多时候不会很确定的讲,绝对不会很绝对的非黑即白,看不懂的就是看不懂,不会用自己的hindsight(事后诸葛亮)来渲染最初决策的迟疑和忐忑。

没有差异化,就没有超额利润

但差异化又很难维持,没有差异化就是卷,卷完剩下的,才能开始赚钱。

关于AI和泡沫

跟我前几天的观点类似

  • https://mp.weixin.qq.com/s/LLPIc5A0fP5uGtxbYdwWlA?scene=1
  • https://x.com/afoo_me/status/1986621585919529032

阿朱说明年可能AI泡沫,我倒是比较乐观。就算是泡沫,也会是回调。AI的趋势是不可逆的,只要电力和算力成本将来下落,AI的普及会是everywhere现在能源和算力标品对于AI的普及,还是太“贵”了。

关于效率

效率的观点我是认同的,我一直觉得可口可乐其实就是靠效率构建了自己最稳定的护城河。

了解自己在竞争态势中的位置

段说:“不要觉得自己就是天选之子”,哈哈哈,但年轻人都是“我命由我不由天”,所以…🤪




「福强私学」来一个?

「福强私学」, 一部沉淀了个人成长、技术与架构、组织与管理以及商业上的方法与心法的百科全书。

footer img for kb.afoo.me

开天窗,拉认知,订阅「福报」,即刻拥有自己的全模态人工智能。

订阅「福报」
Copyright © 王福强个人版权所有 - Since 2004 (Everything is homebrewed with Pandoc and Markdown, little Scala also included.)

KVectors向量数据库完成IVF_RABITQ索引的支持啦~

2025-11-11 00:00:00

KVectors向量数据库完成IVF_RABITQ索引的支持啦~ -王福强的个人博客:一个架构士的思考与沉淀

KVectors向量数据库完成IVF_RABITQ索引的支持啦~

王福强

2025-11-11


有点儿意想不到

写完代码直接跑测试

居然直接过了

没有任何运行期异常 🤪

测试结果跟个人的预期算是相符合吧

将SiftSmall一百万条向量数据灌入KVectors向量数据库之后

在没有构建索引之前先跑了一遍检索

作为对比指标

结果是这样的:

search 10000 vectors in 2280907 milli

然后花了7、8分钟构建索引:

完成 向量集合:ivf-rabitq-test-collection 总共 999999 向量的全量索引构建, 耗时: 0 天 0 小时 7 分钟 25 秒,索引名称:1762832256798

索引构建完成之后

重新跑一遍检索

结果是这样的:

search 10000 vectors in 342093 milli

跟之前纯粹的IVF_FLAT(或者叫IVF_LITE)索引相比

性能劣化了,从个位数毫秒到现在三十几毫秒

但也是合理的

因为IVF_RABITQ索引面向的是1亿~10亿这个规模的向量数据集

百万向量可能很多时候一个是clusters数量不多,另外一个就是很多计算都耗费在计算上了(跑的时候忘了加--add-modules jdk.incubator.vector虚拟机参数了)

但也只是猜测哈

因为后半段基于IVF_RABITQ索引的检索在跑的时候

金总跑过来要看看我新搬的办公室

就陪他溜达了会儿

也就没看到JConsole里CPU的消耗

在没有构建索引之前,纯粹full-scan的时候,CPU消耗其实不大:

Anyway

至此, 2025年双十一之际

KVectors向量数据库已经正式支持了如下几种业界主流的向量索引:

  1. FLAT
  2. HNSW
  3. HNSW+PQ
  4. IVF
  5. IVF_RABITQ
  6. LSH

软著申请提交后处于待审查状态

等再打磨打磨就可以开卖了🤪

当然,有对产品背后机理感兴趣的企业

也有系列企业培训哟(橙子科技已经连续采买了3期)

更多关于KVectors向量数据库的信息,欢迎访问福强科技官网了解「https://keevol.cn/#kvectors」




「福强私学」来一个?

「福强私学」, 一部沉淀了个人成长、技术与架构、组织与管理以及商业上的方法与心法的百科全书。

footer img for kb.afoo.me

开天窗,拉认知,订阅「福报」,即刻拥有自己的全模态人工智能。

订阅「福报」
Copyright © 王福强个人版权所有 - Since 2004 (Everything is homebrewed with Pandoc and Markdown, little Scala also included.)

Claude Code后端模型服务切换三式

2025-11-06 00:00:00

Claude Code后端模型服务切换三式 -王福强的个人博客:一个架构士的思考与沉淀

Claude Code后端模型服务切换三式

王福强

2025-11-06


今天TVP群里有同学分享了自己使用claude code在各大模型服务之间辗转腾挪的实践方法,

恰好这几天看到点儿相关的信息和实践,

简单整理下分享给大家。

前情铺垫

大家都知道claude code是anthropic公司开发的命令行AI开发工具

它默认后端大模型接的是anthropic自己家的模型,

从最早就比较惊艳的 Claude sonnet3.5 到 现在的 Claude sonnet 4.5

后来各大模型厂商以及MaaS服务厂商为了兼容Claude系模型

对外提供的大模型服务API就跟Claude系模型的API兼容了

而兼容带来的好处就是

claude code这个工具可以无缝切换到这些模型

尤其是anthropic这家公司对大中华区一贯严格封堵的情况下

要想原汁原味

门槛还是挺高的

好在有了这些兼容的大模型API

大中华区起码可以享受到claude code的优质服务

配合后端其它大模型服务

也能媲美“特斯拉”了

使用脚本切换 claude code 后端模型服务

TVP群里有同学分享了他的最佳实践:

总结下来就是,

针对不同模型服务,

独立针对其创建claude code启动脚本:

截图内容版权归 TVP Leoobai 所有

使用脚本函数切换 claude code 后端模型服务

这个算是上一个方法的另一种实现思路,都归属于本地无中间服务器方案。

在.bashrc或者.bash_profile(甚至.profile)里针对不同的大模型服务商,定义不同的claude code启动函数,类似于(作者举例哈,没测试过,领悟思想就可以了🤣):

function glm() {
    export ANTHROPIC_AUTH_TOKEN=... # GLM的API key
    export ANTHROIC_BASE_URL=... # GLM的服务地址
    ...
    claude --dangerously-skip-permissions
}

function kimi(){
    ANTHROPIC_AUTH_TOKEN="xxx" ANTHROIC_BASE_URL="xxx" claude --dangerously-skip-permissions
}

function deepseek(){
    ...
}

这样,你每次只要在命令行敲 glm 或者 kimi 或者 deepseek 或者 …

就能启动使用不同大模型服务的claude code了。

使用独立的集中切换大模型服务中继与路由

比如你可以本地启动一个localhost上的claude code兼容的大模型服务,

然后claude code只连这个localhost上的大模型服务地址就可以了,

然后这个本地跑的大模型服务允许配置多个远程的claude code兼容的大模型服务,

想用哪个作为当前要用的大模型服务,就配置哪个是current就可以,甚至根据路由算法进行分发。

这种代理服务,你可以配合大模型自己vibe一个出来,

比如TVP群有同学也分享了他的类似工具:

你也可以用github上开源的项目,

既然这种需求那么强烈,

肯定已经有人搞了

比如: https://github.com/BenedictKing/claude-proxy

最后

happy vibe coding 🤪

我虽然知道这些路子,但其实我还是古早手工写代码多些,哈哈哈




「福强私学」来一个?

「福强私学」, 一部沉淀了个人成长、技术与架构、组织与管理以及商业上的方法与心法的百科全书。

footer img for kb.afoo.me

开天窗,拉认知,订阅「福报」,即刻拥有自己的全模态人工智能。

订阅「福报」
Copyright © 王福强个人版权所有 - Since 2004 (Everything is homebrewed with Pandoc and Markdown, little Scala also included.)