他一个人,把本地 AI 的门槛打了下来。
不是大厂。
不是团队。
只是一个保加利亚开发者,写了一个 C 文件。
他叫 Georgi Gerganov。
2023 年 3 月,LLaMA 泄露后没几天,
他写出了 llama.cpp。
在这之前,很多人默认:
跑大模型,就得上昂贵 GPU。
要么买显卡,要么租云服务。
但 llama.cpp 让大家第一次意识到:
原来一台普通 MacBook,
也能在本地跑大模型。
不用机房。
不用云端。
不用万元显卡。
后来,他又做了 whisper.cpp,
把语音识别也带进了本地运行时代。
今天你用的 Ollama、LM Studio、GPT4All,
很多底层能力都离不开他的工作。
llama.cpp 在 GitHub 上已经 10 万+ Star,
几乎成了本地 AI 的基础设施。
后来,Hugging Face 直接把他的团队招了进去。
但最难得的是:
他还在写代码。
还在开源。
还在免费。
每一次你在电脑上本地跑 AI,
背后都有他的影子。
这才是真正的开源传奇。
点击图片查看原图
点击图片查看原图