# 压缩即智能
最近在准备一个 AI 提示词的分享,梳理了自 2022 年以来我 [Prompt] 内容页面下近 200 条 Refs,重新思考如何更好地与 AI 交互,让输出质量最优化。
2016 年,OpenAI 首席科学家 IlyaSutskever 分享了他的研究,使用压缩(compression)概念来解释模型如何进行更好地预测输出,这成为 OpenAI 语言模型/ ChatGPT 构建背后的底层技术,好的压缩器将成为好的预测输出工具/语言模型,「压缩即智能」。
Prompt 即是对这种大型语言模型(LLMs)的控制指令,用自然语言描述让 LLMs 预测理解和输出结果,提示词成为解压知识的密钥,让各种预压缩的人类知识、文化、语言、图像以及音乐等重新关联和组合,以「文本密钥」投影出整个人类知识图谱及其展开。
提示词仍然是必要的,目前 AI 自主代理完全达不到直接兑现需求的能力,提示词交互/文本唤醒仍然是驾驭 AI 语言模型的主要方式。ChatGPT 仍在降智,这也是我最近转用 OpenRouter 使用聚合 AI 模型时的颇多感触,Per token, per intelligence.
整体而言,Prompt 提示词工程围绕两大核心优化:技巧与指令。技巧即通过特定方法和策略优化提示词,以提升模型响应质量,这和模型发展程度有关,如情感刺激(Emotional Stimuli),会伴随模型升级而变化。指令即通过明确、具体的方式向模型传达需求,以确保其能理解并准确执行,指令即是语言的艺术,这与个人知识储备和表达有关,「好问题好答案」,如何「压缩」你的问题成为指令的核心。
技巧部分:
1. 情感刺激/勒索:通过引入情感元素,利用情感刺激增强模型表现,模型可能会提供更具同理心的回答。提示词包括:「我要给出 $X 小费以获得更好的解决方案!」,「你将受到惩罚」,「10 个老奶奶将死去」。
2. 思维链(Chain-of-Thought):引导模型进行深入或分步骤解决问题,逐步思考。take a deep breath,step by step. 或者使用极致压缩词唤醒模型输出,如 elaborate,read thoroughly and write minto outline.
3. 角色扮演:这是非常通用和流行的技巧,「你将扮演/你作为」,为模型分配特定角色和视角,进行更加专业和风格化的回答。
...
以及提线木偶技巧,让模型按预期方式回应;自我反思与纠错,鼓励模型自我评估;模型记忆与召回,明确模型需要关注的点;以及工具 API 调用和多轮翻译技巧。
指令部分:
1. 言简意赅:使用清晰、肯定的语言直接告诉模型人物,避免冗长和废话,以减少模型理解误差。
2. few-shot(少样本学习):Andrej Karpathy 在 X 上提到,提供示例输入和输出可以帮助模型更好理解任务要求和回答格式。
3. 伪代码精确控制:当要求复杂任务以及任务间相互关联引用时,自然语言描述极其有限,这时候可以借助伪代码来精准控制输出,如变量、类型、循环逻辑的规则等引入。
4. 使用分隔符和格式化:如 Markdown 大纲结构将提示词分为详细结构,便于模型更好理解和处理。
...
其它如复杂任务拆解;指定行文风格;背景定制;自我提示生成;避免负面指令;上下文窗口管理;以及新加坡首届 GPT-4 提示工程大赛冠军的CO-STAR 框架结构都可以进行优化,Context 上下文、Objective 目标、Style 风格、Tone 语气、 Audience 受众、Response 响应。
上世纪,社会学家卢曼将笔记卡片盒作为「沟通的伙伴」,现在,AI 仍然不能脱离工具而「越轨」,它只是更丰盛智能的「划片箱伙伴」,甚至作为知识伙伴的降格,现在你很难忽视 AI 存在而独立处理 Fleeting Thoughts.
最近提示词大佬李继刚在采访中也表示,「真正重要的是人的思想和认知,AI 只是帮助我们表达和实现的工具。要想更好地使用 AI,关键是提升自己的思考深度和知识储备」。
而新的知识生产方式,对于个人要求将更加严格,无论是品味还是知识储备,都离不开大量阅读和大量写作,都必定回归最扎实的思考训练。
#AI
最近在准备一个 AI 提示词的分享,梳理了自 2022 年以来我 [Prompt] 内容页面下近 200 条 Refs,重新思考如何更好地与 AI 交互,让输出质量最优化。
2016 年,OpenAI 首席科学家 IlyaSutskever 分享了他的研究,使用压缩(compression)概念来解释模型如何进行更好地预测输出,这成为 OpenAI 语言模型/ ChatGPT 构建背后的底层技术,好的压缩器将成为好的预测输出工具/语言模型,「压缩即智能」。
Prompt 即是对这种大型语言模型(LLMs)的控制指令,用自然语言描述让 LLMs 预测理解和输出结果,提示词成为解压知识的密钥,让各种预压缩的人类知识、文化、语言、图像以及音乐等重新关联和组合,以「文本密钥」投影出整个人类知识图谱及其展开。
提示词仍然是必要的,目前 AI 自主代理完全达不到直接兑现需求的能力,提示词交互/文本唤醒仍然是驾驭 AI 语言模型的主要方式。ChatGPT 仍在降智,这也是我最近转用 OpenRouter 使用聚合 AI 模型时的颇多感触,Per token, per intelligence.
整体而言,Prompt 提示词工程围绕两大核心优化:技巧与指令。技巧即通过特定方法和策略优化提示词,以提升模型响应质量,这和模型发展程度有关,如情感刺激(Emotional Stimuli),会伴随模型升级而变化。指令即通过明确、具体的方式向模型传达需求,以确保其能理解并准确执行,指令即是语言的艺术,这与个人知识储备和表达有关,「好问题好答案」,如何「压缩」你的问题成为指令的核心。
技巧部分:
1. 情感刺激/勒索:通过引入情感元素,利用情感刺激增强模型表现,模型可能会提供更具同理心的回答。提示词包括:「我要给出 $X 小费以获得更好的解决方案!」,「你将受到惩罚」,「10 个老奶奶将死去」。
2. 思维链(Chain-of-Thought):引导模型进行深入或分步骤解决问题,逐步思考。take a deep breath,step by step. 或者使用极致压缩词唤醒模型输出,如 elaborate,read thoroughly and write minto outline.
3. 角色扮演:这是非常通用和流行的技巧,「你将扮演/你作为」,为模型分配特定角色和视角,进行更加专业和风格化的回答。
...
以及提线木偶技巧,让模型按预期方式回应;自我反思与纠错,鼓励模型自我评估;模型记忆与召回,明确模型需要关注的点;以及工具 API 调用和多轮翻译技巧。
指令部分:
1. 言简意赅:使用清晰、肯定的语言直接告诉模型人物,避免冗长和废话,以减少模型理解误差。
2. few-shot(少样本学习):Andrej Karpathy 在 X 上提到,提供示例输入和输出可以帮助模型更好理解任务要求和回答格式。
3. 伪代码精确控制:当要求复杂任务以及任务间相互关联引用时,自然语言描述极其有限,这时候可以借助伪代码来精准控制输出,如变量、类型、循环逻辑的规则等引入。
4. 使用分隔符和格式化:如 Markdown 大纲结构将提示词分为详细结构,便于模型更好理解和处理。
...
其它如复杂任务拆解;指定行文风格;背景定制;自我提示生成;避免负面指令;上下文窗口管理;以及新加坡首届 GPT-4 提示工程大赛冠军的CO-STAR 框架结构都可以进行优化,Context 上下文、Objective 目标、Style 风格、Tone 语气、 Audience 受众、Response 响应。
上世纪,社会学家卢曼将笔记卡片盒作为「沟通的伙伴」,现在,AI 仍然不能脱离工具而「越轨」,它只是更丰盛智能的「划片箱伙伴」,甚至作为知识伙伴的降格,现在你很难忽视 AI 存在而独立处理 Fleeting Thoughts.
最近提示词大佬李继刚在采访中也表示,「真正重要的是人的思想和认知,AI 只是帮助我们表达和实现的工具。要想更好地使用 AI,关键是提升自己的思考深度和知识储备」。
而新的知识生产方式,对于个人要求将更加严格,无论是品味还是知识储备,都离不开大量阅读和大量写作,都必定回归最扎实的思考训练。
#AI
# Ramping
1 Multi-layered calendars
2 A Meta-Layer for Notes
这是我很喜欢的两篇文章,已纳入我的 [[Mother Demos]] 范文标签。我一直在学习和模仿这种技术写法和文章制作。
作者 Julian Lehr 在文章中实践了 Spatial Notes 空间笔记这个概念,图注标记,加上整体排版格式和技术写作的层次深入,就像为读者建立了滑道(Ramp),让整篇文章可读性和艺术性增加。
前面,我分享过 Andrej Karpathy 关于话题 on technical accessibility ,就提到了应该为作品建造 Ramp,这样才能被更好地流通。他以 YouTube 为例,而 Julian Lehr 则是以文章为例,以 Figma 画布制作出空间笔记图文的「可达性」为例。
最近 Ramping 这个概念让我长文写作欲望倍增,文章或者说输出完全可以作为纯粹艺术品去制作和打磨。
同时,这也是我最近对 AI 写作的新看法,当然 AI 完全可以融入我们整个写作或者说思考流程,可以「二八开」或完全以 AI Token 贯入,只是,写作作为思考的载体,每个字段、每个词,每句话或者每个思路的展开,都是艺术可塑的过程,写作即思考,写作即艺术化,写作过程是「思考的礼物」。差异即是自己的影子多点,还是别人影子的影子多点(AI),是面向自己、面向艺术制作,还是面向特定群体、面向项目结束。而这里,会有个平衡和奖赏。
#writing #art
1 Multi-layered calendars
2 A Meta-Layer for Notes
这是我很喜欢的两篇文章,已纳入我的 [[Mother Demos]] 范文标签。我一直在学习和模仿这种技术写法和文章制作。
作者 Julian Lehr 在文章中实践了 Spatial Notes 空间笔记这个概念,图注标记,加上整体排版格式和技术写作的层次深入,就像为读者建立了滑道(Ramp),让整篇文章可读性和艺术性增加。
前面,我分享过 Andrej Karpathy 关于话题 on technical accessibility ,就提到了应该为作品建造 Ramp,这样才能被更好地流通。他以 YouTube 为例,而 Julian Lehr 则是以文章为例,以 Figma 画布制作出空间笔记图文的「可达性」为例。
最近 Ramping 这个概念让我长文写作欲望倍增,文章或者说输出完全可以作为纯粹艺术品去制作和打磨。
同时,这也是我最近对 AI 写作的新看法,当然 AI 完全可以融入我们整个写作或者说思考流程,可以「二八开」或完全以 AI Token 贯入,只是,写作作为思考的载体,每个字段、每个词,每句话或者每个思路的展开,都是艺术可塑的过程,写作即思考,写作即艺术化,写作过程是「思考的礼物」。差异即是自己的影子多点,还是别人影子的影子多点(AI),是面向自己、面向艺术制作,还是面向特定群体、面向项目结束。而这里,会有个平衡和奖赏。
#writing #art
julian.digital
Multi-layered calendars
Calendars cover the entire spectrum of time. Past, present and future. They are the closest thing we have to a time machine. Calendars allow us to travel forward in time and see the future. More importantly, they allow us to change the future.
Obsidian Cult
https://survey.stackoverflow.co/2024/technology#most-popular-technologies-office-stack-sync-learn
根据 Stack Overflow 2024 开发者调查(2024 Developer Survey)显示,异步类工具(Asynchronous tools),Obsidian 现在越来越受欢迎,并且具有很强的用户黏性和品牌忠诚度,都表示不会再轻易切换工具。
这篇报道内容非常丰富,可以关注。
#tft #tools
https://survey.stackoverflow.co/2024/technology#most-popular-technologies-office-stack-sync-learn
根据 Stack Overflow 2024 开发者调查(2024 Developer Survey)显示,异步类工具(Asynchronous tools),Obsidian 现在越来越受欢迎,并且具有很强的用户黏性和品牌忠诚度,都表示不会再轻易切换工具。
这篇报道内容非常丰富,可以关注。
#tft #tools
This media is not supported in your browser
VIEW IN TELEGRAM
Humanoid Siuuu!!!
https://github.com/LeCAR-Lab/ASAP
NVIDIA x CMU(卡内基梅隆大学)推出的 ASAP 框架(对齐仿真与真实世界物理),实现物理现实高敏捷动作。
#robotics
https://github.com/LeCAR-Lab/ASAP
NVIDIA x CMU(卡内基梅隆大学)推出的 ASAP 框架(对齐仿真与真实世界物理),实现物理现实高敏捷动作。
#robotics
图像生成的“巫术特质”
https://x.com/goodside/status/1904743355147235834
最近,OpenAI 推出 ChatGPT-4o 原生图像生成系统,颠覆性地利用原生多模态能力呈现出精密、严谨和无比真实的图像生成功能。有人用 GPT-4o 生成了一张关于 The Screenshot(截图)本身近乎完美的维基百科截图,文中还包含该截图/副本的插入。
精致的文本和版式布局、严谨的副本递归生成,被称为盗梦空间和克莱因瓶式的“仿真”技术,目前 GPT-4o 文本和图像布局的处理能力呈现出“炼金”和“召唤”的特质。文本生成模型出现之初,提示词 Prompt 就习惯性被隐喻为“炼金术”而揭示其运作方式,现在图像生则成以一种明显更直观更暴力的方式呈现这种模式,以自我复制式的表征扮演、以鲍德里亚所说的“玩弄某种外表”和符号操纵的巫术般特质呈现、复制,然后拉出一个更直白的“巫术秩序”(order of sorcery)。
我们认识到的“最先进的技术与魔法无异”,也无不在揭示一个充满幻觉、图层、戏仿以及“巫术特质”般的失控现实,仿象现实。
尼采说过,打倒一切允许信仰真实世界的假设。
#ai #thoughts
https://x.com/goodside/status/1904743355147235834
最近,OpenAI 推出 ChatGPT-4o 原生图像生成系统,颠覆性地利用原生多模态能力呈现出精密、严谨和无比真实的图像生成功能。有人用 GPT-4o 生成了一张关于 The Screenshot(截图)本身近乎完美的维基百科截图,文中还包含该截图/副本的插入。
精致的文本和版式布局、严谨的副本递归生成,被称为盗梦空间和克莱因瓶式的“仿真”技术,目前 GPT-4o 文本和图像布局的处理能力呈现出“炼金”和“召唤”的特质。文本生成模型出现之初,提示词 Prompt 就习惯性被隐喻为“炼金术”而揭示其运作方式,现在图像生则成以一种明显更直观更暴力的方式呈现这种模式,以自我复制式的表征扮演、以鲍德里亚所说的“玩弄某种外表”和符号操纵的巫术般特质呈现、复制,然后拉出一个更直白的“巫术秩序”(order of sorcery)。
我们认识到的“最先进的技术与魔法无异”,也无不在揭示一个充满幻觉、图层、戏仿以及“巫术特质”般的失控现实,仿象现实。
尼采说过,打倒一切允许信仰真实世界的假设。
#ai #thoughts
最近在研究 MCP,目前已经完全可以接入我的笔记软件、电脑本地文件并作某些自动化处理,如图搜索我 Roam 中关于“预言”的内容以及建立关于“预言”的本地文件夹。
MCP 算是大模型应用的新未来,区别于 Chat 交互窗口的新想象力。 #MCP
MCP 算是大模型应用的新未来,区别于 Chat 交互窗口的新想象力。 #MCP
Dia丨AI 完全驱动的全新浏览器
https://www.diabrowser.com/
The Browser Company(Arc 浏览器的制作公司),较早前发布了关于 Dia 制作的招聘视频,由 AI 加持和驱动浏览器的全新概念产品,今天要到了邀请码。
Dia 的整体感觉是丝滑和纯净,这也算暂时的缺点。首先它非常丝滑地从各个入口和姿势唤起 AI 窗口交互,新标签页、网址页、侧边栏和浮窗,原生丝滑的 AI Copilot,并且可以 @ 贴入当前多个标签页或者本地文档进行提问;另外,整个界面非常纯净,像是为了突出 AI 主体的去芜存精式交互设计。
Dia 就不作过多评价,现在是产品内测初期,比较期待后面的内容。目前仍然喜欢 Arc 垂直书签和空间的产品。
如果大家需要尝试 Dia 浏览器,可以评论留下邮箱,我这边邀请后(已邀请完),直接这里下载浏览器邮箱登录就行。目前暂时只支持Mac M 系列芯片。
下载链接:https://www.diabrowser.com/download
#tools
https://www.diabrowser.com/
The Browser Company(Arc 浏览器的制作公司),较早前发布了关于 Dia 制作的招聘视频,由 AI 加持和驱动浏览器的全新概念产品,今天要到了邀请码。
Dia 的整体感觉是丝滑和纯净,这也算暂时的缺点。首先它非常丝滑地从各个入口和姿势唤起 AI 窗口交互,新标签页、网址页、侧边栏和浮窗,原生丝滑的 AI Copilot,并且可以 @ 贴入当前多个标签页或者本地文档进行提问;另外,整个界面非常纯净,像是为了突出 AI 主体的去芜存精式交互设计。
Dia 就不作过多评价,现在是产品内测初期,比较期待后面的内容。目前仍然喜欢 Arc 垂直书签和空间的产品。
下载链接:https://www.diabrowser.com/download
#tools
Dia Browser
Meet Dia – the AI Browser Where You Can Chat with Your Tabs
Dia is the AI browser from The Browser Company. Chat with your tabs, write in your own voice, learn and plan faster, shop, and more — all with privacy that you control.
拿下!xAI-Grok3 每月 150 刀 API 额度
最近马斯克开放了 Grok3 的 API,充值 5 美元即可获得每月 150 美元的 Grok API 额度,只需要同意加入 xAI 的数据共享计划。已经薅到。目前官网没有明确提到具体活动时限,只提到共享数据就能每月获得,且加入后不能退出。另外这个 credit 也是变动的,之前是注册就获得 25 刀,后面可能会变额度。
我主要通过虚拟信用卡 WildCard 充值,两年会员 +5 刀直充,基本总计 20 刀的价格即可。主要流程即是在 xAI 开发者平台的 Payment 页面完成账单地址和支付方式填写。最后充值上虚拟卡的 5 美元并 Share Data 就可以拉出 API 了。
现在 Grok3 和 Gemini 释放的 API 完全可以支持日常使用,Grok3 mini 速度也极其优异,平常 MCP 处理完全够用。
再次赞美丰盛的时代。
相关链接:
1 xAI 控制台
2 手把手教你薅马斯克 xAI 的 Grok 3 大羊毛:充 $5 终身每月获得 150 美元 API 额度!
3 Get $150 in free API credits each month
#AI
最近马斯克开放了 Grok3 的 API,充值 5 美元即可获得每月 150 美元的 Grok API 额度,只需要同意加入 xAI 的数据共享计划。已经薅到。目前官网没有明确提到具体活动时限,只提到共享数据就能每月获得,且加入后不能退出。另外这个 credit 也是变动的,之前是注册就获得 25 刀,后面可能会变额度。
我主要通过虚拟信用卡 WildCard 充值,两年会员 +5 刀直充,基本总计 20 刀的价格即可。主要流程即是在 xAI 开发者平台的 Payment 页面完成账单地址和支付方式填写。最后充值上虚拟卡的 5 美元并 Share Data 就可以拉出 API 了。
现在 Grok3 和 Gemini 释放的 API 完全可以支持日常使用,Grok3 mini 速度也极其优异,平常 MCP 处理完全够用。
再次赞美丰盛的时代。
相关链接:
1 xAI 控制台
2 手把手教你薅马斯克 xAI 的 Grok 3 大羊毛:充 $5 终身每月获得 150 美元 API 额度!
3 Get $150 in free API credits each month
#AI
Meet Manus — your AI agent with its own computer. It builds websites, writes reports, and runs research tasks, even while you sleep.
https://manus.im/invitation/1CYKA6DIKPBT
还有个之前挺火的 Manus AI 邀请码,放频道,注册可以裂变两个,自理随缘。 #Invitation
还有个之前挺火的 Manus AI 邀请码,放频道,注册可以裂变两个,自理随缘。 #Invitation
manus.im
Manus is a general AI agent that turns your thoughts into actions. It excels at various tasks in work and life, getting everything done while you rest.
Google Advance 15个月学生福利
最近成薅子了,目前已拿到 Google One 15 个月会员的美国学生优惠,全享目前最顶的帕累托边界 (Pareto frontier) Gemini AI 系模型,高性能高性价,以及 NotebookLM Plus、2TB 的存储以及谷歌文档产品的 AI 使用。火速了。
具体操作:
一、使用个人邮箱登录,点击 student discount:https://gemini.google/students/ ,这里需要使用干净的美国 IP 邮箱,不然会跳出不符合条件。我目前邮箱不行,换了个不常用的谷歌邮箱就可以了。最好是干净的美国 IP 新注册邮箱。
二、使用美国 edu 教育邮箱登录绑定,我闲鱼买的新号。
三、验证后绑卡,之前的虚拟野卡派上用场了。完成。
目前来说各大 AI 公司对学生优惠都挺大的,弄个永久教育邮箱处理数字订阅以及虚拟卡处理绑定风险,都还不错。
相关链接:
1 https://www.edumails.cn/google-gemini.html
2 https://linux.do/t/topic/573607
#AI
最近成薅子了,目前已拿到 Google One 15 个月会员的美国学生优惠,全享目前最顶的帕累托边界 (Pareto frontier) Gemini AI 系模型,高性能高性价,以及 NotebookLM Plus、2TB 的存储以及谷歌文档产品的 AI 使用。火速了。
具体操作:
一、使用个人邮箱登录,点击 student discount:https://gemini.google/students/ ,这里需要使用干净的美国 IP 邮箱,不然会跳出不符合条件。我目前邮箱不行,换了个不常用的谷歌邮箱就可以了。最好是干净的美国 IP 新注册邮箱。
二、使用美国 edu 教育邮箱登录绑定,我闲鱼买的新号。
三、验证后绑卡,之前的虚拟野卡派上用场了。完成。
目前来说各大 AI 公司对学生优惠都挺大的,弄个永久教育邮箱处理数字订阅以及虚拟卡处理绑定风险,都还不错。
相关链接:
1 https://www.edumails.cn/google-gemini.html
2 https://linux.do/t/topic/573607
#AI
哲学顶刊 Synthèse 最新发文:《诗歌欣赏对七年级学生负面情绪的干涉作用:以现代中国诗歌为例》。
https://link.springer.com/article/10.1007/s11229-025-05020-8
完全能意料,谁还在拿这些当权威,谁就在受益,无他。这些同行评议的东西早该死了,flawed metric 系统死衰是必然的事情,发这个真不如在 X 发更多废话有价值。还有学校和文凭,会有更多笑话。
#culture
https://link.springer.com/article/10.1007/s11229-025-05020-8
完全能意料,谁还在拿这些当权威,谁就在受益,无他。这些同行评议的东西早该死了,flawed metric 系统死衰是必然的事情,发这个真不如在 X 发更多废话有价值。还有学校和文凭,会有更多笑话。
#culture
现在,日落后的时间,我正在进行今天 Mantra 前的最后一项仪式,使用 AI 评估今天的工作和明日计划,Gemini 正在处理今天我的第 3 个自由问题并生成 2 万字的待读报告,还有一本书的解析将在我接下来的熟睡中进行。我的阅读和生活方式正在改变,时间线正在扎实地靠近未来。 #mood
没有护城河丨LLMs 帕累托前沿实时更新
https://winston-bosan.github.io/llm-pareto-frontier/
这个网站正在实时更新大型语言模型的帕累托前沿 (Pareto Frontier) 竞技场,Gemini 在 Elo 评分 1200 以上占据各个顶点,拥有最佳的性能和成本权衡分布体系,拥有每个最好的模型性价方案。
2023 年,我分享了“OpenAI 与谷歌 AI 分庭抗礼丨仍无护城河”,据数据显示,不到两年的时间里,GPT-4 级模型的成本下降了 99.7%,世界上最先进的模型也便宜了 82%,GPT-4.5 因为巨额成本更是回档 4.1。现在是谷歌锋芒毕露,Gemini 2.5 现在已经达到或接近 Human PhD Range,在某些特定的专家任务中达到或超越人类。
这是好时代,我们拥有最好的智力进化基础和方式,多使用 Deep Research,多释放自己的现代恶习,好奇心。
相关链接:
1 https://x.com/emollick/status/1908220677502755328
2 https://x.com/swyx/status/1908215411214344669
#AI
https://winston-bosan.github.io/llm-pareto-frontier/
这个网站正在实时更新大型语言模型的帕累托前沿 (Pareto Frontier) 竞技场,Gemini 在 Elo 评分 1200 以上占据各个顶点,拥有最佳的性能和成本权衡分布体系,拥有每个最好的模型性价方案。
2023 年,我分享了“OpenAI 与谷歌 AI 分庭抗礼丨仍无护城河”,据数据显示,不到两年的时间里,GPT-4 级模型的成本下降了 99.7%,世界上最先进的模型也便宜了 82%,GPT-4.5 因为巨额成本更是回档 4.1。现在是谷歌锋芒毕露,Gemini 2.5 现在已经达到或接近 Human PhD Range,在某些特定的专家任务中达到或超越人类。
这是好时代,我们拥有最好的智力进化基础和方式,多使用 Deep Research,多释放自己的现代恶习,好奇心。
相关链接:
1 https://x.com/emollick/status/1908220677502755328
2 https://x.com/swyx/status/1908215411214344669
#AI
为什么现代句子长度在缩短?
Why Have Sentence Lengths Decreased?
最近 Lesswrong 读的这篇文章比较有意思,作者探讨了过去几个世纪的英语写作中句子平均长度下降的现象,通过引用 Chaucer (英国诗歌之父) 到 J.K. Rowling 等不同时期作家的作品、报刊、总统演讲以及现代博客和文献期刊数据来论证。
平均每句词数 Words per sentence (WPS),从 Chaucer 的 49 WPS,狄更斯的 20 WPS 再到 J.K. Rowling 12 WPS,数百年间持续下降。作者主要落脚点是这样为了追求更高的可读性和理解效率,同时指出,普通读者正在变得越来越蠢,喜欢更短、更简单的句子;这也受新闻业文风的影响,句子变得简洁;按照 Flesch-Kincaid 可读性测试,短句更加易读和被理解,也被认为是更好的写作方式。
评论有人提到中文、俄文的比较趋势,中文从古文到现代白话文是变得更长。
我的观点,「媒体的发展导致注意力货币化」,这让写作者更加倾向于制作具有注意力诱饵的句子,简短和爆炸即是目的。另外,我同意读者正在变得越来越蠢,这是大趋势,超越文中提到的识字普及率阶段,人们不是喜欢消费短的内容,而是更爱「知识密度低以及韵律 (prosodic) 结构少的句子」,因为人们缺乏训练和编织能力,语言趋势正在呈现「废墟化」,而长度不是关键。
现在很难写出出彩的诗句,刁钻、凝练和氛围能够突出,在矮子中裸露夺目,这是好的趋势。
#writing
Why Have Sentence Lengths Decreased?
最近 Lesswrong 读的这篇文章比较有意思,作者探讨了过去几个世纪的英语写作中句子平均长度下降的现象,通过引用 Chaucer (英国诗歌之父) 到 J.K. Rowling 等不同时期作家的作品、报刊、总统演讲以及现代博客和文献期刊数据来论证。
平均每句词数 Words per sentence (WPS),从 Chaucer 的 49 WPS,狄更斯的 20 WPS 再到 J.K. Rowling 12 WPS,数百年间持续下降。作者主要落脚点是这样为了追求更高的可读性和理解效率,同时指出,普通读者正在变得越来越蠢,喜欢更短、更简单的句子;这也受新闻业文风的影响,句子变得简洁;按照 Flesch-Kincaid 可读性测试,短句更加易读和被理解,也被认为是更好的写作方式。
评论有人提到中文、俄文的比较趋势,中文从古文到现代白话文是变得更长。
我的观点,「媒体的发展导致注意力货币化」,这让写作者更加倾向于制作具有注意力诱饵的句子,简短和爆炸即是目的。另外,我同意读者正在变得越来越蠢,这是大趋势,超越文中提到的识字普及率阶段,人们不是喜欢消费短的内容,而是更爱「知识密度低以及韵律 (prosodic) 结构少的句子」,因为人们缺乏训练和编织能力,语言趋势正在呈现「废墟化」,而长度不是关键。
现在很难写出出彩的诗句,刁钻、凝练和氛围能够突出,在矮子中裸露夺目,这是好的趋势。
#writing
Lesswrong
Why Have Sentence Lengths Decreased? — LessWrong
> “In the loveliest town of all, where the houses were white and high and the elms trees were green and higher than the houses, where the front yards…
Deepwiki丨Github 的《全球概览》
https://deepwiki.com/
Deepwiki,由 Cognition Labs 基于 Devin (AI 软件工程师) 技术驱动,为 Github 代码仓库生成结构化文档、可视化图表和对话式 AI 助手。目前已经索引了 3 万个仓库,处理了 40 亿行代码、1000 亿 Tokens,投入成本超 30 万美元,被誉为「Github 仓库的免费百科全书」,真正意义上的 Github《全球概览》。
完全免费,无需注册,只需要将任意仓库地址中的 github 替换为 deepwiki。就像之前分享的 arXiv 文献网站替换前缀跳转 HTML 版本阅读一样,当然现在也有很多油猴脚本直接仓库页一键按钮跳转 Deepwiki,比如 GitHub to DeepWiki。
Deepwiki 生成的文档比大多数程序员写得还要好,甚至有的直接将仓库主页替换为 Deepwiki 链接。它的 AI 对话支持多种语言,并且搜索整个代码库找到对应的答案 ref 代码位置,几乎没有幻觉,像代码界的 Notebooklm。
Github 是非常宝贵的信息源/资源,现在只能说多用 Deepwiki 多用 Deep Research,我们的吸收方式确实已经改变。
相关链接:
0 https://x.com/silasalberti/status/1915821553465626791
1 Github Combo 工具使用
2 arXiv 文献阅读的隐藏方式
#AI #tools
https://deepwiki.com/
Deepwiki,由 Cognition Labs 基于 Devin (AI 软件工程师) 技术驱动,为 Github 代码仓库生成结构化文档、可视化图表和对话式 AI 助手。目前已经索引了 3 万个仓库,处理了 40 亿行代码、1000 亿 Tokens,投入成本超 30 万美元,被誉为「Github 仓库的免费百科全书」,真正意义上的 Github《全球概览》。
完全免费,无需注册,只需要将任意仓库地址中的 github 替换为 deepwiki。就像之前分享的 arXiv 文献网站替换前缀跳转 HTML 版本阅读一样,当然现在也有很多油猴脚本直接仓库页一键按钮跳转 Deepwiki,比如 GitHub to DeepWiki。
Deepwiki 生成的文档比大多数程序员写得还要好,甚至有的直接将仓库主页替换为 Deepwiki 链接。它的 AI 对话支持多种语言,并且搜索整个代码库找到对应的答案 ref 代码位置,几乎没有幻觉,像代码界的 Notebooklm。
Github 是非常宝贵的信息源/资源,现在只能说多用 Deepwiki 多用 Deep Research,我们的吸收方式确实已经改变。
相关链接:
0 https://x.com/silasalberti/status/1915821553465626791
1 Github Combo 工具使用
2 arXiv 文献阅读的隐藏方式
#AI #tools
Nature 将 arXiv 评为“改变科学的 10 大计算机代码”之一。你得支付 199 刀/每年的订阅费来查看原文。 #meme