那些 14 岁就能学完远超于我当前水平数学、深度学习、量化的人,到底是怎么做到的?
我太摆了。
或许该思考一下获取信息的渠道,转移自己的兴趣点,不该多刷视频的。
那么好词好句又是从何而来呢?
还是渠道问题,应该学习厉害的人是如何规划时间,闲暇时阅读怎样的书的。
另外,我也需要做一些基建,不只是research上要多部署一些感兴趣的方向的bench,也要做好一些其他的基建,比如本网站的朋友圈功能(这个本来是想发在本网站朋友圈的)以及手机互联的问题。
今天是除夕夜,该趁此机会把计划做了。
又想打王者了,这真的很无聊,很浪费时间,不是吗?以前每到这种想法一上来,就很容易选择去玩,到开始打了又会想,要是有个喜欢的人管着我就好了,像阿q一样。近日读 sinya ⌊人约⌉ 才想明白,人是只能靠自己的,任何人都不是神,我们为人也不应该去相信一些小概率事件会发生在自己身上。在这个残酷的世界上,人只能自救,才能幸福。
那个我没有待过的圈子真的很有趣,我想去认识他们。
加油吧,一周足够入门算法竞赛,10个月足够打到cfd2rank1,人不能低估自己3年能做的事。
阅读论文Multimodal Spatial Reasoning in the Large Model Era: A Survey and Benchmarksmllm的综述。大致了解了概念,有哪些方法,有哪些问题。还未细读(看它所指出的论文来加深印象和理解)。
A Survey of Self-Evolving Agents自我学习的智能体综述。此前跟朋友一起做了个玩具multiagent打codeforces,最近想到一些有趣的想法想玩,因此来读这篇论文学习并了解这个方向。这篇论文基本只起到分类指引作用,准备之后按图索骥随用随读需要的论文。
LiveCodeBench Pro: How Do Olympiad Medalists Judge LLMs in Competitive Programming?(nips2025)一个收录算法竞赛题目的bench
关于下面这篇,有趣的是,在读这篇论文一周前,我曾与朋友商量讨论要不要做一下这件事,并且为此思考并尝试与讨论过一些架构的设计。AutoCode: LLMs as Problem Setters for Competitive ...
步骤1:基础网络配置
R1702 配置1234567891011121314151617181920212223242526272829<H3C>sysSystem View: return to User View with Ctrl+Z.[H3C]int g0/1[H3C-GigabitEthernet0/1]ip address 202.100.17.2 24[H3C-GigabitEthernet0/1]quit[H3C]int g0/0[H3C-GigabitEthernet0/0]ip address 17.2.20.1 30[H3C-GigabitEthernet0/0]quit[H3C]int g5/1[H3C-GigabitEthernet5/1]ip address 17.2.10.1 24[H3C-GigabitEthernet5/1]quit[H3C]sysn R_1702[R_1702]saveThe current configuration will be written to the device. Are you sure? [Y/N]:y ...
干活继续完成了 mllm 部分的论文阅读以及 RLHF & PPO 论文的阅读,有天花了一晚上时间理解 PPO 的 clip 的目的和数学原理。
随便找了下那天晚上发给ausert吐槽的照片(gemini3flash太好用了
周六开始至今在写 mllm 的复现代码,这次是完全100%人工队,力求搞懂到底,还没搓完。
感想感觉对比学习出来的那个CLIP会丢失大量信息啊。
其他活完成了操作系统课设的答辩;终于打赢了JAVAEE的一项大作业,虽然展示的时候非常愚蠢(不会演讲怎么办),但无论如何我自己是学到很多东西并觉得自己搞定了。
复(bei)习(song)了一些计网,清空了一波校内作业。
使用 picgo(cli) + piclist(vscode plugin) 实现在vscode-markdown文件中直接导入图床上图片
1npm install picgo -g
在 ~/.picgo/config.json 中完善配置
12345678910111213141516171819{ "picBed": { "current": "smms", "uploader": "lankong", "lankong": { "lskyProVersion": "V2", "server": "https://server_url", "token": "Bearer Token", "strategyId": "", "albumId": "", "permission": "private(default)", "ignoreCertErr": false, "syncDelete": false } }, "picgoPlugins": { "picgo- ...
论文阅读上周阅读论文时没看liujian师兄的gitee,以至于以乱序阅读论文(这导致我先阅读了拼好model llava 和 gpt2 后,返回阅读 bert 和 gpt1 两个 encoder-only 和 decoder-only。在再一次反复理解 transformers 的 encoder-decoder 架构以及与 gemini 讨论翻译任务的前世今生后,感觉自己的大脑再一次学会了 transformers 架构。(究竟要学会几次(
另外粗读了 gitee 上之后的几篇多模态架构论文,感性地理解了一下 blip 和 llava。(?
经朋友推荐阅读了一篇模型结构相关的论文Atlas: Learning to Optimally Memorize the Context at Test Time学习到了一些奇技淫巧:Newton-Schulz5 5次矩阵乘法来逼近矩阵的逆或正交形式?(
一些小事:在跟朋友争论专家模型时,再次阅读了 lora 源论文,一边读一边想到了能不能用 lora 加的那个模块做不同专家,想清楚后一问 gemini 说是 MoE-LoRA。QwQ
有一种从 ...

















