百度sem
(来源:上观新闻)
第一类是🌹🇽🇰在你本地电脑上↗。Claude😘🗻 Code 的🇨🇼起点其实就是🍅🤐一个 UX🚴♀️ 的变🥤化:同🇬🇵🦸♂️样是 Cl🇨🇾🇹🇻aude,但不🕸😦再只是“⏪🍣在云端对👮♀️🇹🇰话”,而是🧘♂️🦢运行在你本地电🚁脑的终端里⌛百度sem。最后我们实在忍🇹🇿📯不住大笑起来🆔,他们才意识到🦄我们根本不是🐱 Henry 💓🇳🇷Kissi❣🛂nger🔌。
当时 John 🛋处于一种董🇮🇩事会对🐚🕗他不满🔆的境地,他大概🏖在公司也待🇵🇱🎊不久了💂♀️。GPT-5.5💔执行对游戏细节的👨👨👦👦调整指令🥅📭 最后,我们💌🧹将难度推至更高🔦阶的实时对战模式🛢,让两名玩家🇿🇦能在不同浏🔹览器中实时竞🌗争消除🇳🇺🇧🇹。对我而🌵🍘言重要的是我们👓要去做正☄🏡确的事🥂。具体做🚶♀️法分四个阶段:首👉先,把零散的情节😯👮性记忆(ep🇧🇹isodi🗿c,具体的事件🇮🇪)通过聚类😔提炼成语义模式(🦘semantic👝🇹🇰,通用规🇹🇿律);其次,🍟对每个👪🔊语义模式计算置🦐信度(要求🐖至少5条证据🤡✏支撑,且置信🇪🇨🎶度公式🇷🇼👨🌾考虑证据量🦒🔠和偏离均值的🚛程度),只保留置⛺信度≥0.7的模🚊百度sem式;然后,基于🕜🚃这些结构化模式🇲🇸💊,用模板生👩🚒🇲🇦成自然语言"软🔘提示"🚹(so🧳ft promp📩ts),无需🤫调用任何⏲LLM,零额外计♣🇷🇪算成本🅾;最后🥳👩👩👧,在每次新🇧🇱🇸🇩对话开始时,把这🇩🇬🔞些软提示自动注入↪到系统㊗🍚上下文里🍺(上限1500🧙♂️个词元),让🏴☠️🐲AI的行为在不😄知不觉中🗒被过去的经验塑造🇱🇨🇸🇹。
我开始也🧸🙅跟他们一起🇷🇴兴奋,但后来我冷👫💊静了下来,就会问👦一个问题:好🛁,效率提升了📀🍰 100 倍,那🕵️♀️公司的营收增长🌭🇰🇼了 100 倍吗🥏🇫🇮?或者产品线扩🤥张了 👱🚺100 倍?总不🍬能 “10🤴😇0 倍” 的提升🎇🔧,最后就是优🍲化掉多少人吧🐙🥘? 我没有得到🇦🇶正面回答🚴🔒。