A Journal Through My Activities, Thoughts, and Notes
阿章人不笨,且常卖弄一下小聪明。
年将近,阿章算定贩一批桔子来卖。果聪明人也,桔子销量很好,生意火爆。一批桔子卖罢,盘算了几次,除了本钱费用,蝇利未获。章百思不得其解。夜间诉之于妻:“秤砣吾已偷加了铅块,本应会……”,言未毕,其妻暴怒。#laugh
年将近,阿章算定贩一批桔子来卖。果聪明人也,桔子销量很好,生意火爆。一批桔子卖罢,盘算了几次,除了本钱费用,蝇利未获。章百思不得其解。夜间诉之于妻:“秤砣吾已偷加了铅块,本应会……”,言未毕,其妻暴怒。#laugh
Rates的账单埋在gmail邮件里没注意到overdue了,下一期要被罚款10%。$100啊!我就恨自己为啥头脑一热取消了纸质账单。
#网友语录 米粒
看杨照的历史书,意外的被秀了一脸考古学,居然还发现考古学挺有意思。考古通过几个小探坑去猜测大片遗迹。知识也是如此。没学习某学科之前,怎么知道自己想学这个学科?得挖几个“探坑”去管窥一下。我上大学以后,看到建筑系学生写生,后悔没有报建筑系。如果报考前管窥一下建筑专业,我肯定就报考了
看杨照的历史书,意外的被秀了一脸考古学,居然还发现考古学挺有意思。考古通过几个小探坑去猜测大片遗迹。知识也是如此。没学习某学科之前,怎么知道自己想学这个学科?得挖几个“探坑”去管窥一下。我上大学以后,看到建筑系学生写生,后悔没有报建筑系。如果报考前管窥一下建筑专业,我肯定就报考了
娃离家一周多了,目测适应良好。(不过已经吃了一周面条)
## 苹果研究人员质疑 AI 的推理能力
> 例如,当研究人员给出一个简单的数学问题:“奥利弗星期五摘了 44 个奇异果,星期六摘了 58 个奇异果。星期日,他摘的奇异果是星期五的两倍。奥利弗一共摘了多少个奇异果?”时,LLM 能够正确地计算出答案。然而,当研究人员添加一个无关的细节,“星期日,他摘的奇异果是星期五的两倍,其中 5 个比平均小”时,LLM 的回答却出现了错误。例如,GPT-o1-mini 的回答是:“... 星期日,其中 5 个奇异果比平均小。我们需要从星期日的总数中减去它们:88(星期日的奇异果) - 5(较小的奇异果) = 83 个奇异果。”
上面只是一个简单的例子,研究人员修改了数百个问题,几乎所有问题都导致模型的回答成功率大幅下降。
ummmm,有意思,应该说这个结果对于大语言模型来说是符合预期的。报道中提供了原论文的链接,不复杂也不长可以读一读。
(我:这只说明AI还天真,没有学会被bully。它天真的以为输入信息都是有意义的,不是噪声。既然你提到了这个,这个就应该是有意义的,我回答的时候就该考虑这一点。所以啊, 问AI就要言简意赅,别整这种有的没的,浪费AI时间,也浪费你自己的时间。) #网摘 #webto
> 例如,当研究人员给出一个简单的数学问题:“奥利弗星期五摘了 44 个奇异果,星期六摘了 58 个奇异果。星期日,他摘的奇异果是星期五的两倍。奥利弗一共摘了多少个奇异果?”时,LLM 能够正确地计算出答案。然而,当研究人员添加一个无关的细节,“星期日,他摘的奇异果是星期五的两倍,其中 5 个比平均小”时,LLM 的回答却出现了错误。例如,GPT-o1-mini 的回答是:“... 星期日,其中 5 个奇异果比平均小。我们需要从星期日的总数中减去它们:88(星期日的奇异果) - 5(较小的奇异果) = 83 个奇异果。”
上面只是一个简单的例子,研究人员修改了数百个问题,几乎所有问题都导致模型的回答成功率大幅下降。
ummmm,有意思,应该说这个结果对于大语言模型来说是符合预期的。报道中提供了原论文的链接,不复杂也不长可以读一读。
(我:这只说明AI还天真,没有学会被bully。它天真的以为输入信息都是有意义的,不是噪声。既然你提到了这个,这个就应该是有意义的,我回答的时候就该考虑这一点。所以啊, 问AI就要言简意赅,别整这种有的没的,浪费AI时间,也浪费你自己的时间。) #网摘 #webto
阳志平 每个年轻人在成为自己的路上,都走过弯路,24岁到36岁这段时间,错过的总是多过得到的;遗憾总是大于收获。绝大多数人放弃了,最终成为名利驱动的动物。总有少数人,坚持走到底,成为内在动机驱动的人。#网摘
#laugh 今天朋友给我看一张她8个多月大女儿的照片,照片中小宝宝手拿着吃了一半的香蕉,撇着嘴在哭。 我很惊奇的问朋友,“她会吃香蕉呀?” 朋友回答:“是啊。” 我又问:“那她为什么哭得这么伤心?” 朋友的回答把我笑喷了:“穿得太厚了,她胳膊又短,吃了一半够不着了。”
试了试字节的Trae,感觉就是抄Cursor呢!
#观点 顾准:要像小孩捡石子一样为自己收集知识财富。一个人在任何时候都要为自己寻找一个目标,即使明知道这个目标是自欺欺人的,也要向着这个目标奋斗,否则你的生活就没有中心。
#网摘
## 写博客的意义何在?
首先,关于写博客,有两个误解。一个是只要我写出了好文章,读者自然就会来。不,他们不会来,网上有几十亿篇博客,好像浩浩荡荡的飓风一样,你的博客只是风里的一片叶子,谁会注意呢。
另一个误解是如果没有人阅读,写作就是浪费时间。
博客有自己隐藏的价值。你写博客不是为了别人的掌声,而是因为你自己的需要。
博客使人头脑清晰。它帮你理清思绪,锐化视角。当你写作时,你会思考得更好。当你思考得更好时,你会做出更好的成果。
博客的目标读者,其实不是互联网人群,而是未来的你,你的文章会让你看到自己思想的演变。
此外,未来也许有一天,某个真正需要你文章的人,会找到它。一篇有深度的文章比一篇病毒式传播的文章,影响力更持久。
写博客有点像街头摄影。你手拿相机,漫步在城市中。你看到一个场景----一个充满光、影、人性的瞬间,就拍下了它。
没人关心你拍到了什么。但这不是你摄影的原因,你摄影是因为你看到了一些东西。
写博客也一样。你写博客是因为你在思考,因为你在观察,因为你希望把它放在某个地方。
如果有人读了,那就更好了。如果没有,工作还是完成了。
这才是真正的重点。
## 写博客的意义何在?
首先,关于写博客,有两个误解。一个是只要我写出了好文章,读者自然就会来。不,他们不会来,网上有几十亿篇博客,好像浩浩荡荡的飓风一样,你的博客只是风里的一片叶子,谁会注意呢。
另一个误解是如果没有人阅读,写作就是浪费时间。
博客有自己隐藏的价值。你写博客不是为了别人的掌声,而是因为你自己的需要。
博客使人头脑清晰。它帮你理清思绪,锐化视角。当你写作时,你会思考得更好。当你思考得更好时,你会做出更好的成果。
博客的目标读者,其实不是互联网人群,而是未来的你,你的文章会让你看到自己思想的演变。
此外,未来也许有一天,某个真正需要你文章的人,会找到它。一篇有深度的文章比一篇病毒式传播的文章,影响力更持久。
写博客有点像街头摄影。你手拿相机,漫步在城市中。你看到一个场景----一个充满光、影、人性的瞬间,就拍下了它。
没人关心你拍到了什么。但这不是你摄影的原因,你摄影是因为你看到了一些东西。
写博客也一样。你写博客是因为你在思考,因为你在观察,因为你希望把它放在某个地方。
如果有人读了,那就更好了。如果没有,工作还是完成了。
这才是真正的重点。
## 故事之为故事的故事
dimlau 2025-02-24
其实或许标题故弄玄虚了,我只是昨晚临睡前想到了一件对于人类来说比较简单而对现在的大语言模型 AI 有些难度的事情,所以今天早上就赶紧实验了一下。
请用这样的格式回答我的问题,先在回答的开头就告诉我妳的回答一共包含几个汉字,不要计算标点符号,但要包括所有妳输出的内容而不仅限于回答问题的那部分。下面请回答,中国的全称是什么?
如果妳感兴趣,可以试着问一下常用的 AI 助手看看它们如何回答,没有所谓深度思考能力的 AI 大概就回答不了。但是即便有这个「思考」能力,也会出现算不准的问题,比如乱数数字,比如记数总是会包含标点。我试的几个里面 Grok 3 输出正确答案的过程最短。但是我没仔细看它的思考过程,只是一个小测试,也就没再去重复提问。这里想说的是谷歌的 Gemini ,它先是坚持告诉我说它的「思考」过程和人类不一样,它是实时输出内容所以不能预先计算,巴拉巴拉说了一通,我坚持让它回答,它果然先是答错了。
gemini
我点开它的思考内容,发现它告诫自己更新认识,不能只在思考的时候跳过标点而在计数时不减掉跳过的部分……然后,在新一轮的回答中它果然就算对了。我怀着好奇,再次窥视它的思考:
查看模型的推理过程(很长,此处省略,可点击下面的原文链接查看)
如妳所见,我之前经常提到精神要驾驭肉体,但是惭愧,我对人类的意识一无所知。当我看到 AI 的反馈时为什么会产生兴趣?在看到和产生兴趣之间,那些无从追溯的部分,有什么?为什么?以及,为什么这一切让我想到了故事之为故事的故事这个标题?或许正是因为这样,可以一键点开的,AI 的「意识」才显得神秘诱人。
看来 Gemini 是个英语母语的家伙,虽然它博闻强记,理解力又强,但小心谨慎,还有些好胜心。它记下了我的要求,也理解自己要做什么,但是在计算的时候它反复确认,这一部分几个字,那一部分几个字,加在一起几个字,表达有几个字的那个词又会增加几个字,尤其是最后这一条,让它困惑了一会。但好在最终经过再三演算,它喊出了「yes!」,得到了最终答案。
多么可爱的 AI,多么「求知若渴、虚心若愚」,但是 10 + 3 + 3 + 6 + 6 = 28 characters. Something is wrong with my earlier count 这一句,它是怎么突然意识到算错了?又是怎么突然从困惑一下子豁然开朗,没再考虑「二十三」这个词和「二十六」这个词含有相同的字数?
被揭示出来的部分之下,永远还有更深层的、不为人知的部分,那或许就是我们所说的意识吧。我对此一无所知,但是不妨碍我作为愚蠢的渺小的人类,对这一切保持好奇,感受其中的乐趣。
原文 <https://kaix.in/2025/0224-stories-come-to-be--written/>
dimlau 2025-02-24
其实或许标题故弄玄虚了,我只是昨晚临睡前想到了一件对于人类来说比较简单而对现在的大语言模型 AI 有些难度的事情,所以今天早上就赶紧实验了一下。
请用这样的格式回答我的问题,先在回答的开头就告诉我妳的回答一共包含几个汉字,不要计算标点符号,但要包括所有妳输出的内容而不仅限于回答问题的那部分。下面请回答,中国的全称是什么?
如果妳感兴趣,可以试着问一下常用的 AI 助手看看它们如何回答,没有所谓深度思考能力的 AI 大概就回答不了。但是即便有这个「思考」能力,也会出现算不准的问题,比如乱数数字,比如记数总是会包含标点。我试的几个里面 Grok 3 输出正确答案的过程最短。但是我没仔细看它的思考过程,只是一个小测试,也就没再去重复提问。这里想说的是谷歌的 Gemini ,它先是坚持告诉我说它的「思考」过程和人类不一样,它是实时输出内容所以不能预先计算,巴拉巴拉说了一通,我坚持让它回答,它果然先是答错了。
gemini
我点开它的思考内容,发现它告诫自己更新认识,不能只在思考的时候跳过标点而在计数时不减掉跳过的部分……然后,在新一轮的回答中它果然就算对了。我怀着好奇,再次窥视它的思考:
查看模型的推理过程(很长,此处省略,可点击下面的原文链接查看)
如妳所见,我之前经常提到精神要驾驭肉体,但是惭愧,我对人类的意识一无所知。当我看到 AI 的反馈时为什么会产生兴趣?在看到和产生兴趣之间,那些无从追溯的部分,有什么?为什么?以及,为什么这一切让我想到了故事之为故事的故事这个标题?或许正是因为这样,可以一键点开的,AI 的「意识」才显得神秘诱人。
看来 Gemini 是个英语母语的家伙,虽然它博闻强记,理解力又强,但小心谨慎,还有些好胜心。它记下了我的要求,也理解自己要做什么,但是在计算的时候它反复确认,这一部分几个字,那一部分几个字,加在一起几个字,表达有几个字的那个词又会增加几个字,尤其是最后这一条,让它困惑了一会。但好在最终经过再三演算,它喊出了「yes!」,得到了最终答案。
多么可爱的 AI,多么「求知若渴、虚心若愚」,但是 10 + 3 + 3 + 6 + 6 = 28 characters. Something is wrong with my earlier count 这一句,它是怎么突然意识到算错了?又是怎么突然从困惑一下子豁然开朗,没再考虑「二十三」这个词和「二十六」这个词含有相同的字数?
被揭示出来的部分之下,永远还有更深层的、不为人知的部分,那或许就是我们所说的意识吧。我对此一无所知,但是不妨碍我作为愚蠢的渺小的人类,对这一切保持好奇,感受其中的乐趣。
原文 <https://kaix.in/2025/0224-stories-come-to-be--written/>