AI
Links to this note
The Dark Side Of AI
tags: AI
AI Use Case
tags: AI
AI Rule Them All
tags: AI
MCP
tags: AI
Mempalace
source: github.com/MemPalace/mempalace/ tags: AI,Agents,MCP,Claude Mem
Agents
tags: AI
OpenClaw Use Case
SOURCE: https://news.ycombinator.com/item?id=47783940 tags: AI, Agents, AI Use Case 结论 OpenClaw 确实有人用,但偏小众,主要价值不是“全自动 agent”,而是做一个带长期记忆、聊天入口和轻量自动化的私人助手底座。 实用场景 个人:Obsidian/笔记记忆、待办提醒、体重/健身/药物追踪、新闻和邮件摘要、语言学习陪练 工作:软件工程辅助、低风险工作流协调、多系统之间的信息整理 家庭:家族历史归档、家庭群问答记录、homelab 价格监控、家人共享助手入口 评论区共识 适合:记忆、整理、提醒、归档、轻自动化 不适合:高权限、高可靠性、长链路自治任务 主要问题:脆弱、维护成本高、很多场景可被脚本或直接问通用 LLM 替代 一句话判断 OpenClaw 更像“个人/家庭 AI 胶水层”,不是“万能 AI 员工”。
Claude Mem
tags: AI, Vibe Coding source: https://github.com/thedotmack/claude-mem
RTK
tags: AI, Vibe Coding source: https://github.com/rtk-ai/rtk Reduce LLM token consumption on common dev commands.
OpenSpec
tags: AI, Vibe Coding source: https://github.com/Fission-AI/OpenSpec/blob/main/docs/workflows.md Vibe complex tasks with OpenSpec. It costs more.
Claude Relay Service
tags: AI,Vibe Coding source: https://github.com/Wei-Shaw/claude-relay-service Claude Code Configuration /path/to/project/.claude/settings.local.json { "env": { "ANTHROPIC_BASE_URL": "https://example.com/api", "ANTHROPIC_AUTH_TOKEN": "YOUR Claude Relay Service API KEY" } } Codex Code Configuration $HOME/.codex/config.toml model_provider = "crs" model = "gpt-5.3-codex" model_reasoning_effort = "medium" [projects."/Users/wh/codes/flageval/flageval-proxy"] trust_level = "trusted" [notice.model_migrations] "gpt-5.3-codex" = "gpt-5.4" [model_providers.crs] name = "crs" base_url = "https://example.com/openai" # 根据实际填写你服务器的ip地址或者域名 wire_api = "responses" requires_openai_auth = true /path/to/project/.codex/auth.json { "OPENAI_API_KEY": "YOUR Claude Relay Service API KEY" } Nginx http { underscores_in_headers on; # 避免部分带下划线的 HTTP 头被忽略 server { # 省略基础配置 location ~ ^/(web|admin|api|openai) { # 传递真实用户 IP proxy_set_header X-Real-IP $remote_addr; proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for; proxy_set_header X-Forwarded-Proto $scheme; # 支持 WebSocket / SSE 等流式通信 proxy_http_version 1.1; proxy_set_header Upgrade $http_upgrade; proxy_set_header Connection "upgrade"; proxy_buffering off; # 长连接 / 超时设置(适合 AI 聊天流式传输) proxy_read_timeout 300s; proxy_send_timeout 300s; proxy_connect_timeout 30s; # ---- 安全性设置 ---- # 严格 HTTPS 策略 (HSTS) add_header Strict-Transport-Security "max-age=31536000; includeSubDomains" always; # 阻挡点击劫持与内容嗅探 add_header X-Frame-Options "DENY" always; add_header X-Content-Type-Options "nosniff" always; # Referrer / Permissions 限制策略 add_header Referrer-Policy "no-referrer-when-downgrade" always; add_header Permissions-Policy "camera=(), microphone=(), geolocation=()" always; # 隐藏服务器信息(等效于 Caddy 的 `-Server`) proxy_hide_header Server; # ---- 性能微调 ---- # 关闭代理端缓存,确保即时响应(SSE / Streaming) proxy_cache_bypass $http_upgrade; proxy_no_cache $http_upgrade; proxy_request_buffering off; proxy_pass http://crs; } } }
Vibe Coding
tags: AI
Claude Code Setup Without Subscription
tags: AI, Vibe Coding Skip Login ~/.claude/settings.json { "apiKeyHelper": "echo {apiKey}" } Project settings /path/to/project/.claude/settings.local.json { "env": { "ANTHROPIC_BASE_URL": "https://openrouter.ai/api", "ANTHROPIC_AUTH_TOKEN": "FILL-WITH-API-KEY", "ANTHROPIC_API_KEY": "" } }
HuggingFace
tags: AI
Set cache_file_name to avoid running Dataset.map every time
tags: AI, HuggingFace, Fine-Tune source: https://discuss.huggingface.co/t/how-to-save-a-mapped-dataset/42303/4 I have a Dataset.map that runs every time I run the script: train_ds.map(prepare_dataset, num_proc=1) I solved it by setting cache_file_name : train_ds = train_ds.map(prepare_dataset, num_proc=1, cache_file_name="trans.ds.cache")
hf-speech-bench
tags: Fine-Tune, AI source: https://huggingface.co/spaces/huggingface/hf-speech-bench
Whisper
tags: AI
Fine-Tune
tags: AI
Fine-Tune Whisper For Multilingual ASR with 🤗 Transformers
tags: AI, Fine-Tune, Whisper source: “Fine-Tune Whisper For Multilingual ASR with 🤗 Transformers.” Accessed August 22, 2024. https://huggingface.co/blog/fine-tune-whisper.
NLTK Data
tags: AI Clone nltk_data git clone https://github.com/nltk/nltk_data.git ~/.local/nltk_data Link nltk_data ln -sf ~/.local/nltk_data/packages ~/nltk_data Unzip cd ~/nltk_data/path unzip xx.zip
Neural Network From Scratch
tags: AI,Deep Learning source: “Neural Network From Scratch.” Accessed January 5, 2022. https://sirupsen.com/napkin/neural-net.
Deep Learning
tags: AI What is the Difference Between CNN and RNN?
译:深度学习算法:完整指南
tags: Translate,Deep Learning,AI,Incomplete 原文链接:Deep Learning Algorithms : The Complete Guide。 深度学习正在影响整个世界。 深度学习的炒作始于 2012 年:一个神经网络(Neural Network)在图片识别任务上表现出超人的性能,并且只有少数人能预测将会发生什么。 在过去 10 年,越来越多的算法落地到我们生活中。越来越多的公司开始将其加入到日常业务中。 这里,我尝试覆盖近几年各种应用如计算机视觉和自然语言处理(Natural Language Processing)中所涉及的所有最重要的算法和构思。 其中有一些算法比其他一些使用的更加频繁并且每一种都有其自身的优点和缺点。 我的主要目标是给你一个当前领域通用的思路去帮助你理解每一种情况应该使用什么算法。 因我知道它看起来会对一些从零开始的人造成一定程度的混乱。 但是通过阅读这份指南,我有信心你会认识到什么是什么并且你可以准备好去立即使用他们。 所以如果你正在寻找一份深度学习真正的完整指南,那就让我们开始吧。 Contents 但是什么是深度学习? 神经网络 前馈神经网络(FNN) 卷积神经网络(CNN) 循环神经网络(RNN) 递归神经网络(Recurisive Neural Network) 自编码器(AutoEncoders) 深度信念网络 (Deep belief network)和受限玻尔兹曼机 (Restricted Boltzmann machine) 生成对抗网络(GAN) Transformers 图神经网络(GNN) 自然语言处理中的深度学习 词嵌入 (Word embedding) 序列建模(Sequence Modeling) 计算机视觉中的机器学习 本地化和物体识别 单发探测器(Single shot detectors) 语义分割(Semantic Segmentation) 姿势估计(Pose Estimation) 深度学习在科学和企业界取得了疯狂的人气。从 2012,卷积神经网络(CNN)在图像识别竞赛( ImageNet Large Scale Visual Recognition Challenge)中获得了惊人的准确性,每年都出现了越来越多的研究论文并且越来越多的企业将神经网络收录到他们的业务中。据估计,深度学习目前的市场规模为 25 亿,预计到 2023 年将达到 181.6 亿。 ...