2026/3/3 分析 · 使用者 #725aca 提供 48 則貼文 (2026-02-02 ~ 2026-03-03)
風險分析
帳號數據
近一個月發文 48 則,日均約 1.6 則,高峰期(3/1-3/3)單日可達 5-8 則。發文時間集中在 UTC 01:00-09:00(北京時間 09:00-17:00),但凌晨時段也有發文。所有貼文均為原創(無轉推),其中至少 5 則為高度重複的自我介紹+付費群廣告。長文貼文結構高度公式化,疑似使用 AI 輔助生成後排程發布。
發文時段分佈
時區:UTC
原創 vs 轉貼
互動數據(原創貼文平均)
資料期間: 2026-02-02 ~ 2026-03-03
AI 深度分析
@sitinme 帳號可信度分析報告
1. 真實性分析
帳號主人大概率為真實人物。自稱成都 Python 程序員、創業 4 年,經營知識付費、爬蟲、RPA 自動化機器人與 AI 工具業務。有以下佐證:
- [48] 記錄了 2026 年初成都線下聚會,附有具體細節與合照描述
- [17] 提及為團隊成員添加算力,暗示有實際經營的小型公司
- [29] 分享與朋友的商業對話,展現實際業務經驗
- 提供微信號(257735)作為聯繫方式,願意公開個人身分
然而,帳號呈現的「技術專家」形象有明顯誇大成分。48 則貼文橫跨的技術領域極廣——從 WiFi 人體姿態追蹤 [6]、Z80 硬件模擬器 [31]、Vercel Marketplace [5]、到 Obsidian CLI [30]——這種「百科全書式」的覆蓋面更像是 AI 輔助的資訊聚合,而非基於個人深度實踐的分享。帳號主人在 [2] 中也坦承「這篇文章也是小龍蝦幫我寫的」。
結論:真實個人帳號,但專業形象經過 AI 輔助包裝,實際角色更接近「AI 工具經銷商」而非「技術深度從業者」。
2. 原創性分析
原創 vs 轉推比例
48 則貼文全部標記為原創,無轉推。但「原創」的實質品質需要細究。
內容生成模式
高度公式化的「技術分享」模板:
大量貼文遵循同一結構——「最近刷帖子,發現了一個叫 XXX 的項目」作為開頭,隨後列點分析功能特色,最後以宏觀趨勢判斷收尾。這一句式在 [6] [9] [13] [18] [21] [28] [33] [36] 中反覆出現,行文節奏、修辭風格、甚至段落長度都高度一致。
AI 代筆的直接證據:
[2] 明確寫道:「比如這篇文章也是小龍蝦幫我寫的內容」,直接承認使用 OpenClaw AI Agent 代筆。結合上述公式化特徵,可合理推斷多數長文貼文均為 AI 生成後略作人工調整。
重複內容:
[1] [3] [11] [14] [15] 為幾乎一字不差的自我介紹 + 付費群廣告,在兩天內發送了 5 次。這是典型的刷曝光洗版行為。
聚合器特徵
帳號本質上是 AI 技術資訊聚合器,而非原創分析來源。多數貼文的核心內容來自:
- GitHub 項目 README(如 [6] WiFi-DensePose、[9] Reddit 實戰)
- 官方發布公告(如 [5] Vercel、[30] Obsidian、[34] Anthropic)
- 其他社群媒體討論的二手整理
帳號幾乎不提供獨立的技術驗證、性能測試或深度分析。
3. 利益動機分析
核心商業利益
帳號的核心商業目的非常明確——推廣自營的 aigocode.com API 轉售平台及相關付費社群。
直接推廣行為:
- [1] [3] [11] [14] [15]:5 則幾乎相同的付費群廣告,收費 49 元,贈送 50 元 aigocode.com 算力
- [23]:直接為 aigocode.com 打廣告,「不用折腾网络和订阅,按量付费,开箱即用」
- [17]:宣稱為團隊加了 1 萬美元算力,本質是 aigocode.com 品牌宣傳
- [27]:「歡迎隨時監督,一起 aigocode 搞起來!」
隱蔽推廣行為(更值得警惕):
- [8]:以 OpenClaw 新手教程為名,在配置步驟中自然植入「去配置 AIGoCode 的 Claude Opus 4.6」
- [12]:以技術評測形式出現,但整篇文章的結論導向「AIGoCode + OpenClaw 是天花板」
- [46]:以零基礎部署教程為名,核心步驟指向使用 AIGoCode 中轉
- [42]:推薦用戶「給你的 ClaudeMax 或者小龍蝦操作學習」
利益衝突
帳號從未揭露其與 aigocode.com 的經營關係(是擁有者?合夥人?分銷商?)。所有推薦都偽裝成「個人體驗分享」,但實際上是在為自己的付費服務導流。帳號也從未推薦過任何競品或替代方案(如官方 Anthropic API、其他 API 中轉服務),立場偏頗明顯。
付費社群模式
49 元付費群 + 贈送 50 元算力的模式,本質是以「虧本贈送」為誘餌獲取用戶,後續透過 aigocode.com 的持續消費獲利。[15] 的「小白慎入」警告反而增加了稀缺感行銷效果。
4. 操作手法分析
手法一:技術權威建構
帳號透過高頻率發布橫跨多個技術領域的「深度分析」來建立技術權威形象。但如前分析,這些內容大多為 AI 生成的資訊聚合。帳號利用這種「技術 KOL」定位來增加商業推廣的可信度——讀者會認為「技術大佬推薦的工具應該不差」。
手法二:軟性商業植入
最精巧的手法是將商業推廣嵌入教學內容。以 [8] 為例:表面是「新手配置教程」,實際關鍵步驟是「去配置 AIGoCode 的 Claude Opus 4.6」。讀者跟著教程操作,自然而然就成為了 aigocode.com 的用戶。[46] 採用了完全相同的策略。
手法三:重複洗版刷曝光
[1] [3] [11] [14] [15] 在短時間內重複發送幾乎相同的廣告文案,是最直接的洗版行為。這種做法犧牲了帳號品質感,但能最大化觸及不同時區的受眾。
手法四:生態綁定敘事
帳號持續構建「OpenClaw + AIGoCode = 完美解決方案」的敘事。[18] 在分析 OpenFang 時,結尾落腳於「OpenClaw 打開了能力」。[12] 將兩者包裝為「開源 Agent 目前的天花板」。[45] 直接宣稱「今年一定要玩的就是 OpenClaw」。這種持續的生態綁定讓讀者形成「用 OpenClaw 就要用 AIGoCode」的認知慣性。
手法五:FOMO 與焦慮驅動
[29] 的商業建議(「用戶注意力是稀缺資源」「決策窗口極短」)不僅是在教別人,也是帳號自身採用的策略。[32] 描述「額度用完的焦慮」來推動工具採用。[5] 以「未來能不能被 Agent 調用,可能會成為一個產品的生死線」製造緊迫感。
總結
@sitinme 是一個以技術分享為包裝的商業推廣帳號。帳號主人確實是真實的技術從業者,具備一定的行業認知,但其核心目的是透過高頻率的 AI 生成內容建立技術權威形象,進而為自營的 aigocode.com 平台及付費社群導流。重複洗版、未揭露的商業利益、以及公式化的 AI 代筆內容,顯著降低了該帳號作為客觀資訊來源的可信度。
可信度評分:33/100(不可信)
閱讀建議:該帳號的技術資訊聚合有一定參考價值,但所有涉及工具推薦、平台選擇的建議都應視為帶有商業動機的置入,需獨立驗證後再做決策。
引用來源
简单介绍下自己,方便大家交流 1. Python程序员,在成都,创业4年 2. 主要做知识付费,爬虫,RPA自动化机器人,AI工具等等。 这两天玩小龙虾OpenClaw,真的上瘾😂搞个小龙虾交流群,收49送50元http://aigocode.com 的Claude和codex算力。 感兴趣的欢迎添加vx:257735或扫码,联系付款进群。
我用 9 个 AI 助手在帮我干活。 每天早上 9 点,AI 自动搜热点;我在 Telegram 里选一个,它自动写推文、生成配图、发布、同步星球、归档到 Notion。晚上再自动抓数据、生成日报、分析哪些内容互动高。 我只做一件事:选题。 剩下的,全自动。 目前整套系统的核心是 OpenClaw。 你可以把它理解成:给 AI 一个“身体”。 它能调用 Twitter API 发推、调用 Notion API 建库、用 Gemini 生成配图、定时执行任务、扫描 @我的评论、自动整理回复建议,然后在 Telegram 里等我一句 “1 2”,它就帮我回完。 以前这些事手动做,3-4 小时。 现在 10 分钟搞定。 真正的价值不只是省时间,而是数据洞察。 比如这篇文章也是小龙虾帮我写的内容。
简单介绍下自己,方便大家交流 1. Python程序员,在成都,创业4年 2. 主要做知识付费,爬虫,RPA自动化机器人,AI工具等等。 这两天玩小龙虾OpenClaw,真的上瘾😂搞个小龙虾交流群,收49送50元http://aigocode.com 的Claude和codex算力。 感兴趣的欢迎添加vx:257735或扫码,联系付款进群。
Vercel 把 Marketplace 直接向 AI Agent 开放了。 什么意思?一句话——以后基础设施这块,真的可以全自动了。 以前我们用 Claude Code、Cursor 这些 AI 编程工具,写代码已经很猛了,但真正上线一个项目,最麻烦的从来不是代码本身,而是那一堆“杂事”: 数据库要去注册,Redis 要单独开,认证服务要配,日志监控要接,邮箱服务要申请 API Key…… 这些步骤过去基本都得人肉操作。AI 能写业务逻辑,却卡在基础设施这一步。 这次 Vercel 干了一件很关键的事: 不用搞 MCP Server,不用接新协议,直接把自家 CLI 包成一个 AI Skill。 一行命令: npx skills add vercel/vercel --skill vercel-cli 装完之后,Agent 就可以像人一样“逛 Marketplace”了。 它能做什么? ·自动 discover 有哪些数据库、认证、日志服务 ·自动 add 安装 Neon、Upstash 这种服务 ·自动注入环境变量 ·自动读取接入文档 ·自己把集成代码写好 最后部署上线 你只需要说一句:“帮我做个带登录系统的待办 App,部署到 Vercel。” 剩下的流程,理论上 Agent 全跑完。 我觉得这件事的意义,不只是“方便”。也是在说:基础设施正在从“人操作”变成“Agent 可操作”。 以前:API 是给程序用的;文档是给人看的;CLI 是给人敲的 现在必须:返回结构化数据;支持无交互模式;提供机器可读文档;默认假设:调用者可能是 Agent 这其实是 SaaS 形态的一次升级。 未来能不能被 Agent 调用,可能会成为一个产品的生死线。 如果你的服务不能被自动发现、自动安装、自动配置,那在 AI 自动化流程里,它就会被绕开。 目前来说:项目搭建的“时间成本曲线”正在被压平。 过去从 0 到 1 搭一套完整基础设施,可能要 2~3 小时。 未来可能只是一句 prompt。 当部署成本无限接近 0,真正有价值的东西只剩两件: 1.你想解决什么问题 2.你是否有持续迭代能力 代码门槛在下降,基础设施门槛在消失。AI + 可编排基础设施,正在把“做产品”这件事,压缩到极致。
最近看到一个项目,WiFi-DensePose 它做的事:用普通 WiFi 路由器的信号,实时追踪人体姿态、检测呼吸和心跳。没有摄像头,没有一个像素的视频数据。 原理: • WiFi 信号穿过人体时会产生 CSI(Channel State Information)扰动 • 系统分析 56+ 个子载波的复数值变化 • 通过物理信号处理 + 机器学习重建人体位置和生命体征 • 输出完整的 3D 姿态坐标,精度到厘米级 注意:普通笔记本 WiFi 只暴露 RSSI(一个数字),不够用。需要支持 CSI 采集的硬件。 但项目提供了模拟模式: docker run -p 3000:3000 ruvnet/wifi-densepose:latest 打开 localhost:3000 就能跑完整 pipeline(合成数据)。 应用场景: • 🏥 老人跌倒检测 — 不侵犯隐私 • 🏠 智能家居存在感知 • 🫁 非接触式生命体征监测 • 🔒 隐私优先的安防方案 这项技术最早来自卡内基梅隆的论文"DensePose from WiFi",现在终于有了 production-ready 的开源实现。 来源:https://t.co/ydQusl0p2l (https://t.co/ydQusl0p2l)
很多新手在配置小龙虾(OpenClaw)的时候,最大的问题不是模型本身,而是自己去手改配置文件。 尤其是 models 这一段 JSON,只要多一个逗号、少一个冒号、缩进乱了,gateway 启动直接报错。报的还是那种“有 / 或者有 : 的异常”,看起来像是路径问题,其实大概率是 JSON 语法错了。 说实话,新手真的不建议一开始就手改配置文件。 最简单的路径是: 第一步,先用官方默认支持的模型跑通,比如 MiniMax 或者智谱。 你去买一个几十块钱的套餐,一路 Yes、Yes、Yes,需要什么 API key 就填什么。不要动配置文件,不要自己写 JSON,全部走向导。先确认小龙虾是能正常跑起来的。 等这个跑通了之后,再去配置 AIGoCode 的 Claude Opus 4.6。 而且这一步也不建议自己改文件。正确姿势是:把 AIGoCode 的配置文章直接丢给你的小龙虾,让它帮你生成和修改配置。它比你手敲 JSON 稳定得多。 很多人卡在 API key 改不动,其实也是因为 JSON 结构被改坏了。只要结构没问题,改 key 是非常简单的事情。 核心原则就一句话: 新手不要一上来就折腾配置文件。 ——— 另外一个经验是,多模型、多实例是王道。 我自己现在是: 一个实例跑 AIGoCode Claude 一个实例跑 Codex 还有其他模型备用 哪个模型出问题,直接切换。觉得不够聪明就换,限流了就换,报错了就换。不要死磕一个模型。 小龙虾本身内存占用并不高,大概 500MB 左右可以跑一个实例。但用得越久、上下文越大,占用会慢慢涨。我现在 64G 内存的 Windows 机器,跑了 10 个实例,大概吃掉六七个 G,很稳。 所以玩法不是“只配一个模型然后祈祷它永远不出问题”,而是:多模型 + 多实例 = 稳定性。 ——— 总结给新手一句话: 先用 MiniMax 或智谱跑通 不要手改配置文件 用小龙虾帮你生成配置 配多个模型随时切换 这样走,基本不会卡。
Reddit 实战:4小时搭了4个 OpenClaw Agent r/SideProject 有人分享了完整实操:用 OpenClaw 花4小时搭了一套3 Agent编排系统,跑了3天的真实数据。 技术栈: • OpenClaw(MIT 协议) • Claude Sonnet 4.5 • AppleScript + cron + markdown 架构:3个 Agent 各司其职,分别负责 Reddit 发帖互动、Twitter 回复、Telegram 群管理。不是玩具,是 production 级配置。 关键设计——质量门控系统: • 每条 Agent 生成的内容都会被打分(满分50) • 低于 40 分的内容直接拦截,不发布 • 宁可不发,也不发烂内容 3天运行成绩: • Reddit karma 从 20 涨到 100 • 6 条有意义的评论互动 • 9 条 Twitter 回复 • 自动化成功率 100% 这才是 AI Agent 的正确用法:不是替你刷量,是帮你在保证质量的前提下扩大存在感。 来源:https://t.co/vTOaonniat (https://t.co/vTOaonniat)
简单介绍下自己,方便大家交流 1. Python程序员,在成都,创业4年 2. 主要做知识付费,爬虫,RPA自动化机器人,AI工具等等。 这两天玩小龙虾OpenClaw,真的上瘾😂搞个小龙虾交流群,收49送50元http://aigocode.com 的Claude和codex算力。 感兴趣的欢迎添加vx:257735或扫码,联系付款进群。
Claude Opus 4.6 + OpenClaw,开源 Agent 目前的天花板 Opus 4.6 是 Anthropic 2月5日发的旗舰模型。OpenClaw v2026.2.23 原生支持。两个东西接在一起,效果炸裂。 先说模型能力: • 1M token 上下文窗口(Beta),塞进整个代码库不是问题 • 128K max 输出 token,长文生成不截断 • ARC-AGI-2 得分 68.8%,非微调模型史上最高 • Terminal-Bench 2.0 得分 65.4%,终端操作能力刷榜 • SWE-bench 80.8%,直接解真实 GitHub issue • 自适应思考(Adaptive Thinking),简单问题秒回,难题自动深想 再说 OpenClaw 这层为什么重要: 以前用 Claude API 写个脚本调一下就完了。现在 OpenClaw 给你的是一个完整的 Agent Runtime: • 本地 Gateway — API Key 不过第三方,数据留在你机器上 • 持久记忆 — 跨对话记住你的项目、偏好、待办 • 多通道 — Telegram / Discord / Slack / Signal 随便接 • Sub-agent — 一个任务拆成多个子 Agent 并行跑 • Skills 生态 — ClawHub 3000+ 技能,一行命令装上 • 浏览器控制 / 邮件 / GitHub PR / Apple Watch 全打通 配置就一行: "primary": "anthropic/claude-opus-4-6" 加个 fallback 到 Opus 4.5,主模型挂了自动切,7×24 不断。 安全方面 OpenClaw 也跟上了: • openclaw secrets audit/configure/apply/reload 完整密钥管理 • 工具权限白名单,exec 策略可控 • v2026.2.19 一次性修了 40+ 安全问题 • CrowdStrike 专门出了企业安全指南 对比:Claude Code 写代码更专,Perplexity Computer 是封闭付费的。这个组合的优势是通用 + 开源 + 本地部署 + 生态完整。 来源: https://t.co/9Ge6EQDnXx (https://t.co/9Ge6EQDnXx) https://t.co/bKRXB1cTJN (https://t.co/5SnXDzyuWk) https://t.co/TsQKDUs8st (https://t.co/TsQKDUs8st)
最近刷帖子,发现了几个让 AI Agent 变强的 Skills,挺有意思的。 1.Vercel 的 find-skills Vercel 这个 find-skills 就很实用:用 npx skills find xxx 直接搜,用 add 安装,用 check/update 一键更新。 它的价值不是省几分钟,而是把“扩展能力”从到处翻 GitHub,变成一个稳定的工作流。 你越频繁用 Agent 干活,就越能体会:可发现性 + 可维护性,才是长期效率。 2.Anthropic 的 skill-creator 很多人写 Skill 会下意识写成“README + 教程 + 废话一堆”,结果真正给模型干活的指令反而不清晰。 但这个: 渐进式加载:先加载少量元数据,再加载核心指令,最后引用资料按需加载——就是为了省上下文。 自由度匹配:任务越脆弱(比如线上改配置、动数据库),指令就越具体、越像护栏;任务越开放(比如 brainstorm),反而要留空间。 说白了:Skill 不是写给人看的,是写给模型“稳定执行”的。你把它当成“可复用的作业流程”,写出来的东西就会完全不一样。 3.Brainstorming Skill 它其实是在帮你省返工:很多项目最浪费时间的不是实现,而是“实现到一半才发现目标不清楚 / 约束漏了 / 成功标准没对齐”。 它让 Agent 先问清楚问题、给 2-3 个方案、讲清 trade-off,再落一份设计文档到 docs/plans/,这套流程对协作和复盘也很友好。 4.Systematic Debugging Skill 大多数 Debug 变成灾难,都是从“我先改改试试”开始的。 它把流程拆成:复现与边界定位 → 模式对比 → 单一假设最小测试 → 先写失败用例再修根因。 最有用的是它强迫你一次只动一个变量,别“顺手多改点”。 这听起来慢,但实际上最快——你会明显感觉到自己从“猜”变成“证据驱动”,效率和稳定性都上一个台阶。
简单介绍下自己,方便大家交流 1. Python程序员,在成都,创业4年 2. 主要做知识付费,爬虫,RPA自动化机器人,AI工具等等。 这两天玩小龙虾OpenClaw,真的上瘾😂搞个小龙虾交流群,收49送50元http://aigocode.com 的Claude和codex算力。 感兴趣的欢迎添加vx:257735或扫码,联系付款进群。
简单介绍下自己,方便大家交流 1. Python程序员,在成都,创业4年 2. 主要做知识付费,爬虫,RPA自动化机器人,AI工具等等。 这两天玩小龙虾OpenClaw,真的上瘾😂搞个小龙虾交流群,收49送50元https://t.co/di794U7drW 的Claude和codex算力。 感兴趣的欢迎添加vx:257735或扫码,联系付款进群。 ⚠️这不是答疑群服务群,降低预期,小白慎入。
为了让小伙伴好好玩AI和小龙虾🦞给团队小伙伴加了1w usd算力,在我们这种小公司其他福利没啥,算力管够,一起AIGoCode!加油
最近 Agent 圈子真的有点卷出新阶段了,最近刷帖子有刷到一个叫OpenFang的项目 它不是单纯让 Agent 更聪明,而是试图把零散的 AI 能力——爬虫、写作、剪辑、浏览器自动化、数据分析——全部串成一条可以持续自动运转的流水线。 我觉得它最有意思的设计,是那个叫 Hands 的概念。 普通 Agent 像什么?像外包。 你说一句,它干一句;流程断了,还得你自己接。 Hands 更像一个有完整 SOP 的员工。 你给目标,它自己按计划跑,知道什么时候干什么、用什么工具、最后把结果交到哪里。中间不需要你盯着。 这点非常关键。 我们以前谈 Agent,大多是在谈“能力”; 现在开始谈的是“工作方式”。 OpenFang 这次内置的几个 Hands,我看下来思路都很工程化: ·Collector 持续盯竞对、舆情变化,自动构建知识图谱 ·Lead 自动跑潜在客户挖掘,打分、去重、打包输出 ·Researcher 用交叉验证生成带引用报告 ·Clip 自动剪视频、做字幕、封面、发布 ·Browser 自动操作网页,但涉及支付会强制人工确认 这不是“会不会用工具”的问题,而是——能不能自己把一条流程闭环跑完。 更重要的是安全架构。 Agent 权限越大,风险越大。 OpenFang 把 16 层安全机制直接写进架构里,WASM 沙箱、哈希链日志、消费强制人工确认……这些设计说明它不是在做玩具,而是在往“生产级系统”方向走。 OpenFang 明显是在第三阶段发力。 这有点像当年的 Docker。 Docker 不是让程序变聪明,而是让部署变标准化、可复制。 Hands 本质上也是在做同一件事——把 AI 的工作流程标准化、封装化。 未来的竞争,可能不再是谁模型更强,而是谁的 Agent 流程跑得更稳、更安全、成本更低。 当一个人能管理 10 条、50 条、100 条自主运行的流程,那他本质上是在管理一支数字团队。 OpenClaw 打开了能力,ZeroClaw 打磨了性能,OpenFang 开始做“组织”。 Agent 这条线,越来越清晰了。
最近刷帖子,刷到一个叫learn-claude-code 的教学型项目,感觉有点意思。 想真正掌握 Claude Code 的精髓,最好的方式不是多提需求,而是亲手复刻一遍它的核心逻辑。learn-claude-code 就是干这个的——它不追求做一个生产级替代品,而是把很多工程细节故意“删掉”,只保留最关键的 Agent 心智模型: 循环怎么跑、工具怎么接、计划怎么显式化、上下文怎么不爆、任务怎么落盘、团队怎么协作、并行怎么隔离……就会发现,Claude Code 的“神秘感”其实主要来自工程组织方式,而不是某个黑魔法 prompt。 它最让我喜欢的一点是:整个学习路径是 s01 到 s12 递进式的,每一节只引入一个核心机制。比如最开始就一句话:one tool + one loop = an agent(一个 bash 工具 + 一个循环,就已经是 Agent 了)。 然后逐步加多工具、加 Todo 计划、加子 Agent 做隔离、加技能按需加载(而不是把一堆说明塞 system prompt)、加上下文压缩“战略性遗忘”、加文件级任务状态、加后台任务、加多 Agent 邮箱队列、加协议/FSM、 最后再走到 worktree 级别的任务隔离。这条路线特别像在拆一台发动机:你不是背概念,而是每拧一颗螺丝就知道它负责什么。 我自己的感受是:今天做 Agent 的分水岭,已经不是“模型聪不聪明”,而是“你有没有把它当一个可长期维护的系统来设计”。prompt 只能让它一时聪明,真正让它长期稳定的是:状态怎么存、上下文怎么控、任务怎么追踪、失败怎么回滚、协作怎么对齐、并发怎么隔离。 learn-claude-code 这种项目的价值就在于:它把这些“工程化的骨架”用最小成本摊开给你看——你自己撸一遍,收获绝对比让 Claude Code 帮你写一百个需求更大。 如果想试试看,可以先从最小 agent loop 开始,再一路加机制。就会发现:所谓“数字生命”,其实就是 工具 + 状态 + 协议 + 迭代循环。 当把这套骨架掌握了,不止 Claude Code,你看任何 Agent 框架都会突然变得“透明”。
想用 Claude Code 搭同样的 AI 开发工作流? http://aigocode.com 直接接入,不用折腾网络和订阅,按量付费,开箱即用。 已经有不少开发者在用它跑 Claude Code 写项目了 🚀
最近刷帖子,发现几个好玩有用的GitHub 项目,讨论蛮多的。 1.Agent-Reach 把 AI 上网这件麻烦事打包到你可以直接用。Twitter API 付费、Reddit 封 IP、小红书要登录、B 站服务器访问经常被挡……这些坑做过的人都懂,一个个单独适配很容易把人劝退。 它好就好在把常见平台通路做成可替换的组件:读网页、读推文、拉字幕、全网搜索,各用各的成熟工具,Cookie 本地存不上传。 未来能规模化的 Agent,不一定是最聪明的那个,而是最“接地气”、最会打通渠道的那个。 2.obsidian-skills AI 最容易把笔记语法搞乱(双链、callouts、格式块),修起来很烦。 它的价值不只是“能在 Obsidian 里用 Claude”,而是让 AI 尊重你的知识库结构——能内联编辑、能理解你已有的链接网络、还能接上 Claude Code 的 Skills 体系。 个人知识库如果要进入“Agent 时代”,关键不是更花哨的 UI,而是让 Agent 在你的文件系统里做事时不破坏秩序。 3.ClawFeed 把“信息过载”这件事往产品化方向推了一步:不让你刷到手酸,而是把 Twitter/RSS/HN/Reddit/GitHub Trending 聚合起来,再用 AI 提炼重点,还能按 4 小时/每日/每周/每月输出。 我挺喜欢它的两个点:一个是 Source Packs(信息源可以打包分享,别人一键装),另一个是 Mark & Deep Dive(你标记感兴趣的,AI 再做深挖)。 这背后其实是一个新习惯:以后我们不再“被动刷信息”,而是“主动喂信息源给 Agent,让它生成决策材料”。
今天一个做 AI 工具的朋友问我个问题,挺有代表性的。 用户充了100块月卡,聊着聊着发现对年卡有兴趣。他说:"让用户等月卡到期再来升级吧,帮人家省点钱。" 听完我直接给他纠正了:把这100块直接抵扣,让用户当场升年卡。 为什么?三个底层逻辑: 1. 用户注意力是稀缺资源 一个月后他大概率忘了你是谁。做过产品的都知道,留存比拉新难10倍,到手的用户你主动放走? 2. 决策窗口极短 行为经济学里叫"热认知"——用户当下有需求、有意愿,这个窗口可能就几分钟。你让他"冷静冷静",其实是在帮竞品做转化。 3. 善意≠好策略 帮用户省100块,看似厚道,实际是拿一年的收入去赌一个月后他还会回来。这不是善意,是没算清账。 程序员转做业务最常见的坑:用工程师思维做商业决策。写代码追求优雅,做生意追求结果。 共勉。
Obsidian 1.12 发布,CLI 正式开放 这个更新对用 AI Agent 的人来说是大事。 以前 AI 读你的 Obsidian 笔记,只能暴力读文件。现在有了 CLI,可以结构化操作: - obsidian search query="关键词" — 搜索知识库 - obsidian read file=笔记名 — 读取内容 - obsidian daily:append content="任务" — 追加每日笔记 - obsidian create name="标题" template=模板 — 从模板创建 - obsidian eval code="..." — 在 App 内执行 JS - obsidian tags counts — 列出所有标签 AI 终于能理解 wikilinks、笔记关系、知识结构,而不只是读一堆文本。 安装:更新 Obsidian 到 1.12 → 设置 → 通用 → 开启 CLI 来源:https://t.co/RIL66unreJ
Redis 作者 antirez 用 Claude Code 写了一个 Z80/ZX Spectrum 模拟器 不是写 CRUD,是硬件模拟。这才是 Claude Code 的正确打开方式。 他的方法很有意思: 1. 先写一份 Markdown 规格说明,把设计要求写清楚 2. 让 Claude Code 上网搜 Z80 技术文档,提取成 markdown 3. 删掉这个 session(防止代码污染) 4. 新开 session,只用收集的文档,禁止联网,让 AI 自主编码 结果:Z80 + ZX Spectrum + CP/M 模拟器全部完成。 关键教训: - 人负责设计决策,AI 负责实现 - 好的 prompt 规格说明 = 好的结果 - Clean Room 方法论值得学习 源码:https://t.co/OKv2TTfyFP 原文:https://t.co/r4VdlymYbJ
用 Claude Code / Codex / Cursor 写代码,最崩溃的不是它偶尔写错,而是——你写到最关键一段,突然弹窗告诉你「额度用完了,等 X 小时」。 那一刻真的像打游戏打到 Boss 残血,你的键盘突然被收走。 更离谱的是,这些工具平时几乎不会主动告诉你还剩多少额度,你只能“用到被限速”才知道自己超了,然后再去后台翻用量页,来回切换一圈,节奏直接断掉。 不过,我最近刷帖子的时候看到一个小工具挺对味:CodexBar。它就是把你的 AI 编程额度做成 macOS 菜单栏小图标,钉在右上角,随时抬眼就能看。 常见的设计是两条进度:一条看 5 小时窗口剩多少,一条看 周用量,点开还能看到每个工具的明细、重置倒计时、过去 30 天大概花了多少钱。 它不解决“更强的模型”,它解决的是一个更实际的问题:让你别被额度管理偷走注意力。 我更在意的是它的取数方式:默认走 本地日志(Claude Code / Codex 这些会生成 JSONL 日志),它读固定路径的日志来估算用量,基本不用给额外权限; 如果你想更精确(比如跟官网一致的额度上限、会员档位那种),也可以手动开启 复用浏览器 Cookie 去拉数据——但这一步是可选的。 我的观点是:能本地就本地,能不授权就不授权,默认模式就已经够解决 80% 的焦虑了。 一直觉得,AI 编程进入下半场之后,大家拼的不是“谁模型更强”,而是“谁的工作流更稳”。 CodexBar 这种工具看起来小,但它把一个高频摩擦点抹平了:你会开始更像“总编辑”一样控节奏——快到顶了就收一收,重要任务留到窗口重置后再冲,不会被系统突然掐断。 它免费、开源、装上就能用,这种东西不装反而有点亏。
最近刷 GitHub,有种很明显的感觉:AI 编程真的进入“工程化 + 基建化”阶段了。 以前大家比的是模型谁更聪明,现在比的是——谁更懂长期维护、谁更懂自动化、谁更懂 Agent 的“记忆”和“技能系统”。 1.Scrapling 爬虫真正的痛点从来不是写出来,而是网站一改版就全崩。能自动重定位元素,本质是在把“结构变化”变成可被算法吸收的噪音。这种工具一旦成熟,会直接改变爬虫项目的长期 ROI。 2.Agent-Skills-for-Context-Engineering 现在做 Agent 的人都知道:模型不傻,但“会失忆”。 真正的差距已经不在 Prompt,而在 Context Engineering(上下文工程)。 渐进式加载、技能拆分、分层记忆——这些设计思路才是生产级 Agent 的核心。 未来拼的不是谁会用模型,而是谁能把模型“组织”起来。 3.claude-code-telegram 手机远程操控 Claude Code,本质是在把“开发环境”从电脑解放出来。 这背后其实是一个趋势:AI Agent 正在成为常驻服务,而不是临时工具。 4.Hugging Face Hugging Face 官方做 Skills 这件事,我觉得意义更大。 它在做的不是一个工具,而是在定义“技能标准”。 当 skills 可以跨 Claude Code、Cursor、Codex、Gemini CLI 复用时,Agent 生态才真正开始形成平台级结构。 AI 编程的下半场,已经不是模型大战,而是——谁能让系统更稳;谁能让 Agent 不失忆;谁能把技能模块化;谁能把长期维护成本打下来
Anthropic 刚宣布 Claude for Open Source 计划 开源项目维护者和核心贡献者,可以免费申请 6 个月 Claude Max 20x Claude Max 20x 正常价 $200/月,6 个月就是 $1,200 白送 名额最多 10,000 人,有开源项目的赶紧申 申请条件: - 开源项目 maintainer - 核心 contributor - 热门项目优先 申请链接:https://t.co/elr29EZ54b Anthropic 的算盘很清楚:Claude Code 已经是开发者标配,留住开源开发者就是留住整个生态。 来源:Lydia Hallie https://t.co/SfpgI7Kocy
最近刷帖子,意外发现 Google 的 Code Wiki,感觉还挺好用的,属于那种“你用一次就会想把它塞进日常工作流”的东西。 以前读代码慢,是因为项目复杂、历史包袱重;现在更离谱的是——Vibe Coding 一开,AI 堆代码的速度直接把人的理解能力碾过去。 代码一天一个版本,文档呢?大概率还停在半年前。你让 AI 按文档跑,十次有九次报错,这不是你水平问题,是“文档天然会腐烂”的结构性问题。 Code Wiki 捅破的点很直接:既然没人愿意维护文档,那就别指望“人肉维护”,让 AI 来维护。 它更像是长在仓库里的“活体 Wiki”:代码一有新的 commit,它就用 Gemini 去扫变更,把相关说明、模块介绍、关键逻辑的文档一起更新。 对我来说这意义很大,因为它解决的不是“写得更漂亮”,而是“永远别过期”。 文档不再是一个需要你记得去更新的负担,而是代码的自然副产物。 它的可视化能力还不错,Code Wiki 能直接从代码关系里渲染出 类图、时序图、依赖图、架构流转图 这种“人类更容易理解”的表达方式。 尤其是接手老项目、准备重构、或者经常研究开源项目——这类图的价值很高:大家不是在“逐行读”,而是在“先建立地图,再决定往哪里深挖”。 它的交互是“可追溯”的。你在侧边栏问它问题,它会基于当前仓库给解释,而且能给出精确的代码引用,点一下就跳到文件和行号。 这一下把 AI 最让人难受的“幻觉焦虑”降了不少:你不需要完全相信它的结论,你只需要顺着引用去核查——它更像一个“带证据链的讲解员”。 一句话:在 Claude Code、Codex 这些工具把“生成”变得近乎无限便宜之后,我们真正稀缺的东西变了——不是产出,而是理解与判断。
如果一直想把「龙虾」跑起来,但总觉得部署很复杂,我把整个流程重新走了一遍——从一台全新的 Ubuntu 服务器开始,零基础安装,踩坑点全标出来。 总结下来其实就 6 步:装程序 → 申请 Telegram 机器人 → 跑向导 → 改模型配置 → 重启服务 → 完成配对。按顺序做,一次搞定。 核心思路其实很简单:先用 npm 全局安装 OpenClaw,然后用 openclaw onboard 跑一遍官方向导,把 Telegram 渠道、systemd 自启、基础环境都配好。 模型那一步记得选 Skip,因为我们是走 AIGoCode 中转,不在默认列表里。向导结束后,去 ~/.openclaw/openclaw.json 手动加上 AIGoCode 的 provider 配置,并把默认模型指向 aigocode/claude-opus-4-6。 这一步是关键,JSON 别写重复字段,不然会互相覆盖。 改完配置重启 openclaw gateway restart,然后去 Telegram 给你的 Bot 发一句话,拿到配对码,在服务器执行 openclaw pairing approve telegram xxx,看到 Approved 基本就稳了。 只要服务状态是 active (running),Bot 就会一直在线,就算你关掉 SSH 也不会掉。 说白了,难的不是技术,而是第一次走流程不熟。走通一遍之后,你会发现整个体系其实非常清晰:向导负责环境,配置文件负责模型,Gateway 负责常驻运行,Telegram 负责入口。 跑起来之后,后面加模型、换渠道、装 skills,都是在这个基础上扩展。 最后:别光看教程,直接开一台服务器实操一遍。AI Agent 这种东西,只有真正 24 小时跑在你自己的机器上,才会感受到它的威力。
2026年开年第一次成都线下聚会圆满结束 2026 年第一次线下聚会,拉了一波技术圈的朋友线下聚了聚,敞开聊、狠狠干货,信息密度比很多大会都高。 这次重点聊了几点: ·AI 自动化不是堆工具,而是职责分层 ·现在拼的不是技术多深,而是谁更快把东西做出来、卖出去 ·知识付费正在走向内卷,未来更值钱的是工具 + 实操 ·出海一定要重视收款、银行、合规备份,否则一次封号就能致命 一句公式送给大家:热门技术 × 认知偏差 × 快速执行 = 真正的钱。 👉 线上聊千遍,不如线下见一面,很多认知拐点,都是在真实交流里被“撞”出来的 感谢每一位到场的小伙伴,也感谢新朋友带来的高质量分享。 今年会多搞这种小而密的线下局,不追规模,只追含金量。 这次也总结了文章,详细内容可以看看这个👉https://t.co/fMLVbZnSMh