| MiniMax m2.7 vs GLM-5.1 vs Kimi k2.5 — 코딩 성능 비교 (2026년 3월) | 한 줄 요약 |
title: MOC - AI Models created: 2026-03-29 modified: 2026-04-10 tags: [moc, ai-models]
MOC - AI Models
LLM, 모델 아키텍처, 벤치마크 관련 노트 모음
모델
| 노트 | 설명 |
|---|---|
| SpreadsheetBench & TerminalBench | AI 에이전트 벤치마크 (Kevin Gu) |
| ChatGPT Thinking Mode | 모델 체급에 따른 특성과 한계 |
| Qwen3.5 Claude Distilled | Qwen3.5-27B Claude 추출 모델 |
| Qwen3.6-Plus | 1M 토큰 컨텍스트, 에이전트 코딩 강화, OpenClaw/Claude Code 연동 |
| Claude Mythos Preview 벤치마크 | Anthropic 최강 모델 — SWE-bench 93.9%, HLE 64.7%, 사이버 83.1% |
| LM Studio 헤드리스 CLI — Claude Code + Gemma 4 로컬 | LM Studio 0.4.0 Anthropic 호환으로 Claude Code를 로컬 모델로 구동 |
| Open-Sora 2.0 | $200K 학습, 11B 오픈소스 비디오 생성 (HPC-AI Tech) |
인프라 & 추론 엔진
| 노트 | 설명 |
|---|---|
| Cloudflare Workers AI | Cloudflare의 대형 모델 지원 |
| iPhone 400B LLM | iPhone에서 400B LLM 실행 |
| Mac mini Ollama + Gemma 4 설정 | Mac mini에서 Ollama로 Gemma 4 자동 실행·유지 설정 |
| Gemma 4 + OpenClaw 3단계 로컬 구동 | Google Gemma 공식 가이드 — Ollama + Gemma 4 26B A4B + OpenClaw |
| vLLM Omni | 고성능 LLM 추론 서버 (PagedAttention) |
의존성 & 소프트웨어 공학
| 노트 | 설명 |
|---|---|
| Karpathy의 LiteLLM 의존성 재평가 | Golang 철학 vs Python 의존성 체인 (LiteLLM 사건 이후) |