| MiniMax m2.7 vs GLM-5.1 vs Kimi k2.5 — 코딩 성능 비교 (2026년 3월) | 한 줄 요약 |


title: MOC - AI Models created: 2026-03-29 modified: 2026-04-10 tags: [moc, ai-models]

MOC - AI Models

LLM, 모델 아키텍처, 벤치마크 관련 노트 모음


모델

노트설명
SpreadsheetBench & TerminalBenchAI 에이전트 벤치마크 (Kevin Gu)
ChatGPT Thinking Mode모델 체급에 따른 특성과 한계
Qwen3.5 Claude DistilledQwen3.5-27B Claude 추출 모델
Qwen3.6-Plus1M 토큰 컨텍스트, 에이전트 코딩 강화, OpenClaw/Claude Code 연동
Claude Mythos Preview 벤치마크Anthropic 최강 모델 — SWE-bench 93.9%, HLE 64.7%, 사이버 83.1%
LM Studio 헤드리스 CLI — Claude Code + Gemma 4 로컬LM Studio 0.4.0 Anthropic 호환으로 Claude Code를 로컬 모델로 구동
Open-Sora 2.0$200K 학습, 11B 오픈소스 비디오 생성 (HPC-AI Tech)

인프라 & 추론 엔진

노트설명
Cloudflare Workers AICloudflare의 대형 모델 지원
iPhone 400B LLMiPhone에서 400B LLM 실행
Mac mini Ollama + Gemma 4 설정Mac mini에서 Ollama로 Gemma 4 자동 실행·유지 설정
Gemma 4 + OpenClaw 3단계 로컬 구동Google Gemma 공식 가이드 — Ollama + Gemma 4 26B A4B + OpenClaw
vLLM Omni고성능 LLM 추론 서버 (PagedAttention)

의존성 & 소프트웨어 공학

노트설명
Karpathy의 LiteLLM 의존성 재평가Golang 철학 vs Python 의존성 체인 (LiteLLM 사건 이후)

관련 MOC