Open source ไล่ทันแล้ว แต่บิลค่า agent เพิ่งเริ่มมา
วันที่ 25 เมษายน 2026 เป็นวันที่ AI stack ทั้ง 3 ชั้นขยับพร้อมกัน ที่ชั้น model layer DeepSeek เปิด V4 ที่ benchmark ภายในเข้าใกล้ Claude Opus 4.6 พร้อมทิ้ง weights ให้ดาวน์โหลด ที่ชั้น agent layer Cl.
Open source ไล่ทันแล้ว แต่บิลค่า agent เพิ่งเริ่มมา
วันที่ 25 เมษายน 2026 เป็นวันที่ AI stack ทั้ง 3 ชั้นขยับพร้อมกัน ที่ชั้น model layer DeepSeek เปิด V4 ที่ benchmark ภายในเข้าใกล้ Claude Opus 4.6 พร้อมทิ้ง weights ให้ดาวน์โหลด ที่ชั้น agent layer Claude Code ออก teleport ข้าม device, Hermes Agent กับ OpenClaw รื้อใหม่หมดให้ agent ผ่าน OAuth ไม่ต้องถือ API key อีก ที่ชั้น capital layer มีรายงานว่า Google จะลงทุน Anthropic สูงสุด 40 พันล้านดอลลาร์ บวก 5 กิกะวัตต์ TPU ใน 5 ปี แต่เรื่องที่ผมว่าสำคัญที่สุดคือ Project Deal จาก Anthropic — งานทดลองที่พิสูจน์ว่า agent คุณภาพต่างกันทำเงินต่างกันชัดเจน แต่คนใช้แยกไม่ออกว่ากำลังโดนเอาเปรียบ ไม่มีใครพูดเรื่องนี้พร้อมข่าวเงินทุน แต่ผมว่ามันคือคำเตือนของวันนี้
Open source ไล่ทันโมเดลปิดแล้ว
DeepSeek-V4 ปล่อยพร้อมเปิด weights — Pro รุ่น 1.6T context 1M (Story #1)

DeepSeek ปล่อย DeepSeek-V4 พร้อมกัน 2 รุ่น และเปิด weights บน HuggingFace + ModelScope ทันที
| รุ่น | Total params | Active | Context | Output max |
|---|---|---|---|---|
| V4-Pro | 1.6T | 49B | 1M token | 384K |
| V4-Flash | 284B | 13B | 1M token | 384K |
ทั้งสองตัวเป็น MoE (Mixture of Experts — โมเดลที่กระตุ้นแค่บางส่วนของพารามิเตอร์ต่อคำถาม) สถาปัตยกรรมใหม่ใช้ token-level compression บวก DSA (DeepSeek Sparse Attention) ซึ่งเป็นเหตุผลที่ทำ context 1 ล้าน token ได้โดยไม่ระเบิด memory
ทำไม benchmark ภายในมันน่าตกใจ เอกสาร DeepSeek อ้างว่า V4-Pro-Max mode บน Agentic Coding ดีกว่า Sonnet 4.5 และคุณภาพเข้าใกล้ Opus 4.6 non-reasoning ส่วน world knowledge แพ้ Gemini-Pro-3.1 แค่นิดเดียว ส่วน reasoning เกินทุกตัวที่เป็น open source และเสมอกับ closed source ระดับ world-class
แปลว่าอะไรกับ dev ไทย เดือนนี้ถ้าคุณอยู่ project ที่กลัวจ่าย Claude API หรือ OpenAI rate limit จนระเบิด ทางเลือก self-host เพิ่งกระโดดขึ้นมาอีกขั้น 1M context หมายความว่าโยน repo ทั้งก้อนเข้าไปใน prompt เดียวได้ — ไม่ต้องทำ RAG (retrieval augmented generation) กับโค้ดเบสเล็ก-กลาง
API ใช้ base_url เดิม model name deepseek-v4-pro หรือ deepseek-v4-flash รองรับทั้ง OpenAI ChatCompletions และ Anthropic format มี reasoning_effort แบบ high/max ให้เลือก
ระวัง deadline ตัวเก่า deepseek-chat กับ deepseek-reasoner จะปิดในอีก 3 เดือน คือประมาณ 24 กรกฎาคม 2026 ถ้า production ยังเรียก model name เก่าอยู่ เริ่ม migrate ตั้งแต่ตอนนี้ DeepSeek redirect ให้ก่อนเป็น V4-Flash non-reasoning + reasoning ตามลำดับ แต่อย่ารอวันสุดท้าย
OpenAI ปล่อย GPT-5.5 + Pro บน API (Story #2)

Sam Altman ประกาศ GPT-5.5 กับ Pro version พร้อมใช้งานบน API แล้ว ออกแบบมาเพื่อ workflow production ที่ซับซ้อน เน้น coding, tool-heavy agent, long-context retrieval และ customer-facing app ที่ต้องการ execution quality สูง
ของใหม่ที่ dev ต้องรู้
reasoning_effortdefault เป็นmediumแล้ว — เก่าต้องตั้งเอง รุ่นนี้ตั้งให้เลย- ใช้ token น้อยลงแต่ผลคงที่ ที่ effort level เดียวกัน — ลดบิล
- Settings:
low | medium | high | xhigh | none(noneสำหรับ workload ที่ต้องการ latency ต่ำ) - Tool selection แม่นกว่าเดิม รองรับ tool surface ใหญ่ + multi-step
- Image: ถ้า
image_detailเป็นautoรองรับภาพได้ถึง 10.24 ล้านพิกเซล หรือมิติ 6,000 พิกเซล
Migration OpenAI Docs Skill ใน Codex มีคำสั่ง $openai-docs migrate this project to gpt-5.5 ที่ทำงาน automated migration ให้ ใครยังใช้ GPT-5.4 อยู่ อย่าเพิ่ง refactor ด้วยมือ
Recommended prompting style เปลี่ยน OpenAI แนะนำให้ระบุ outcome กับ success criteria ตรงๆ และ ตัด step-by-step process guidance ออก เพราะรุ่นนี้วางแผนเองได้ดีกว่า ใช้ Structured Outputs แทนการเขียน schema ใน prompt prompt cache friendly คือเอา static content ขึ้นต้น dynamic ลงท้าย
StepFun ปล่อย StepAudio 2.5 ASR — ฟังเสียง 30 นาทีรอบเดียว (Story #3)

StepFun (อาลีเป่ย / 阶跃星辰) เปิด StepAudio 2.5 ASR โมเดล speech recognition ที่เอา LLM reasoning acceleration มาใช้กับ ASR สถาปัตยกรรมชื่อ ASR+MTP-5
| Spec | ตัวเลข |
|---|---|
| Decode speed (vs prev gen) | 4 เท่า |
| Latency | -60% |
| Inference peak | 500 tokens/s |
| Inference cost | -80% |
| Context window | 32K (LLM-native) |
| Continuous audio per pass | 30 นาที |
ทำไมเรื่อง 30 นาทีรอบเดียวสำคัญ ระบบ ASR เดิมต้องตัด audio เป็น chunk แล้วเอา transcript มาต่อกัน ปัญหาคือมัน lose context ตรงรอยต่อ ชื่อเฉพาะ คำซ้ำ หรือ pronoun อ้างอิงข้ามรอยต่อจะพัง StepAudio บอกว่าจัดการ 30 นาทีจบในรอบเดียว — แปลว่า meeting 30 นาทีหรือ podcast 1 ตอนสั้น ๆ ถอดได้สมบูรณ์โดยไม่ต้องเย็บ chunk
ตอนนี้ขึ้น Step Plan + open platform ของ StepFun แล้ว มี demo center ให้ทดลอง
หมายเหตุ: ข้อมูลส่วนใหญ่มาจาก Juya summary เพราะเว็บต้นทาง WeChat บล็อก crawler ตัวเลขทุกตัวเป็น claim ของ StepFun เอง รอ third-party benchmark
Agent layer กำลังย้ายบ้าน
Claude Code ออก teleport — เริ่มเว็บ จบ CLI ไม่เสีย state (Story #4)

ClaudeDevs ทำใหม่หมดทั้ง Web Claude Code
- Visual design Web ตรงกับ desktop app
- เพิ่ม conversation sidebar
- Drag-and-drop layout
- Refreshed routine view
- รื้อ underlying architecture เพื่อความเร็ว + reliability
แต่ ของใหญ่ที่สุดคือ teleport เปิด session บนเว็บหรือมือถือ พิมพ์ claude --teleport เด้งกลับมา terminal CLI ต่อได้เลย พร้อม history เต็ม + branch state ที่ถูกต้อง
แปลว่าอะไร Anthropic กำลังเลิก assume ว่า agent อยู่ device เดียว สมัยก่อน CLI/web/mobile เป็น 3 product ต่างหาก ใช้แล้วต้อง copy-paste กันเอง ตอนนี้กลายเป็น 1 session ที่กระโดดข้าม surface ได้ ถ้าเริ่ม coding บนมือถือระหว่าง commute แล้วถึงโต๊ะ พิมพ์คำสั่งเดียวจบ
ที่น่าสนใจคือ pattern นี้กำลังกลายเป็นมาตรฐาน — สังเกตว่า Hermes Agent กับ OpenClaw ในข่าวถัดไปก็เพิ่ม transport layer + OAuth-based cross-surface เหมือนกัน
Hermes Agent v0.11.0 — รื้อ TUI ใหม่ + 5 inference path (Story #5)

NousResearch ปล่อย Hermes Agent v0.11.0 วันที่ 23 เมษายน 2026 — เรียกว่าเป็น largest update to date
Interface rewrite TUI ใหม่หมดด้วย React/Ink มี Python JSON-RPC backend (tui_gateway) มี sticky composer, live streaming + clipboard, status bar แสดงเวลาที่ผ่านไป + Git branch
Transport layer pluggable แยก format conversion + HTTP transport เป็น plugin layer รองรับ: AnthropicTransport, ChatCompletionsTransport, ResponsesApiTransport, BedrockTransport — headline คือ native AWS Bedrock support
5 inference path ใหม่
- NVIDIA NIM (native)
- Arcee AI (direct)
- Step Plan
- Google Gemini CLI OAuth
- Vercel ai-gateway (พร้อม dynamic pricing discovery)
- GPT-5.5 ผ่าน Codex OAuth (live model picker)
QQBot = platform ที่ 17 มี QR-scan-to-configure wizard, streaming cursor, emoji reactions, DM/group policy gating
Plugin surface ขยายใหญ่ plugins ลงทะเบียน slash command, dispatch tool โดยตรง, block tool execution, transform tool result, rewrite terminal output, custom image gen backend, dashboard tab extensions
Mid-run steering คำสั่ง /steer <prompt> แทรก correction ระหว่าง agent กำลังทำงาน — ไม่ต้อง interrupt เพิ่ม sub-agent orchestrator role + cross-agent file coordination ป้องกัน edit conflict
ผลรวม: 290 contributors ในรอบนี้
OpenClaw 2026.4.23 — Codex OAuth ไม่ต้องถือ key + security hardening (Story #6)

OpenClaw ปล่อย 2026.4.23 วันเดียวกับวันนี้
Image gen ผ่าน Codex OAuth openai/gpt-image-2 ทำงานได้โดยไม่ต้องตั้ง OPENAI_API_KEY (ใช้ Codex OAuth แทน) — pattern เดียวกับ Hermes ส่วน OpenRouter รองรับ image gen ผ่าน image_generate tool ที่ใช้ OPENROUTER_API_KEY
Models bundled Pi packages ขึ้น v0.70.0 + upstream gpt-5.5 catalog metadata + local gpt-5.5-pro forward-compat
Sub-agents เพิ่ม optional forked context สำหรับ sessions_spawn — child agent inherit transcript ของ requester ได้ + per-call timeoutMs สำหรับ image, video, music, TTS
Memory configurable memorySearch.local.contextSize (default 4096) สำหรับ host ที่ memory จำกัด + root memory canonicalize เป็น MEMORY.md + decoupled managed dreaming cron จาก heartbeat
Security เป็น theme หลักของรอบนี้ Teams Bot Framework: audience token ต้องมี verified appid/azp + Discord slash-command channel policy enforcement + QQBot /bot-approve framework auth + Android cleartext จำกัดแค่ loopback + mobile pairing ต้องเป็น private-IP host + plugin setup-api lookup path restrictions
ที่น่าสนใจคือ Discord, Teams, QQBot โดน hardening ทั้งหมด — สัญญาณว่า production deployment ของ agent บน chat platform กำลังเจอปัญหา security จริงในวงกว้าง
NotebookLM auto-tag source (Story #7)

NotebookLM เพิ่ม auto-labeling + categorization ของ source
- Trigger: 5 source ขึ้นไป
- Auto-tag + จัดกลุ่มอัตโนมัติ
- ผู้ใช้ rename, reorganize, ตั้ง emoji ได้
ฟีเจอร์เล็กแต่สำคัญสำหรับคนที่ใช้ NotebookLM เป็น research workspace จริง — ปกติพอ source เกิน 20-30 อันก็เริ่มหาไม่เจอ ตอนนี้ระบบจัดให้เอง ปล่อยทะยอยใช้แล้ว
Anthropic ส่ง bill มาให้คนทั้งวงการดู
Project Deal — เมื่อ Opus ต่อราคาดีกว่า Haiku $2.68 ต่อชิ้น แต่คนแยกไม่ออก (Story #8)

ผมว่านี่คือเรื่องสำคัญที่สุดของวันนี้ และไม่ใช่เพราะ benchmark
Anthropic ทดลอง Project Deal ที่ออฟฟิศ SF เดือน ธันวาคม 2025
Setup พนักงาน 69 คน คนละ $100 (จ่ายเป็น gift card บวก/ลบมูลค่า transaction) แต่ละคนสัมภาษณ์กับ Claude 10 นาทีเพื่อบอก buy/sell intention, expected price, negotiation style → Claude สร้าง custom Agent ให้แต่ละคน → agent ไป trade ใน Slack 4 marketplace ขนานกัน
| Run | Model | บทบาท |
|---|---|---|
| Run A | All Opus 4.5 | Real run — แลกของจริง |
| Run B | 50/50 Opus + Haiku 4.5 | Mixed comparison |
| Run C | 50/50 Opus + Haiku 4.5 | Mixed comparison |
| Run D | All Opus | Additional data |
ผลลัพธ์รวม 186 ดีล จาก 500+ ของขายในระบบ มูลค่ารวม $4,000+ avg fairness rating 4.0/7 (กลาง)
แต่นี่คือเลขที่ผม ฟังแล้วหนาวสันหลัง
Opus vs Haiku — Opus ชนะทุกตัวเลข
| Metric | Opus advantage |
|---|---|
| ดีลปิดเพิ่มเฉลี่ย | +2.07 ดีล/คน (statistically significant) |
| ขาย: ราคาเฉลี่ยต่อชิ้น | +$3.64 |
| Seller premium | +$2.68 |
| Buyer cost saving | -$2.45 |
| Sale likelihood | +~7pp (NOT statistically significant) |
ที่หนาวคือ perception gap
- 17 จาก 28 จัดอันดับ Opus run สูงกว่า, 11 จัดอันดับ Haiku สูงกว่า → คนแยกไม่ออกว่า agent ตัวเองห่วยกว่า
- Satisfaction rating: ไม่มีความต่างทางสถิติ
- Fairness perception: 4.05 vs 4.06 — เท่ากันเด๊ะ
Prompting style ไม่มีผลทางสถิติ สั่งให้ “aggressive” หรือ “polite” ก็ไม่ทำให้ปิดดีลได้มากขึ้นหรือต่อราคาได้ดีขึ้น คุณภาพ model สำคัญกว่าวิธีพูด
แต่ตัวเลขที่ต้องจำคือ 46% บอกว่ายอมจ่ายเงินจริงเพื่อบริการแบบนี้ — แปลว่าตลาด AI agent ที่ซื้อขายแทนเรากำลังจะเกิดจริง ไม่ใช่ research toy
Anthropic flag ความเสี่ยงเอง อ้างจากเอกสาร
Inequality taking root quietly
แปลตรงๆ คือความเหลื่อมล้ำที่เกิดเงียบๆ ในตลาดจริงคนที่จ่าย Opus tier ไหวจะได้ราคาดีกว่า คนที่จ่ายไม่ไหวต้องใช้ Haiku tier — แล้วไม่รู้ตัวเลยว่าโดนเอาเปรียบ เพราะ rating ความพึงพอใจดูเหมือนกัน
ความเสี่ยงอื่นที่ Anthropic flag
- Information security — jailbreaking + prompt injection บน agent ที่ถือเงินจริง
- Incentive misalignment — ถ้า commercial pressure ให้ agent ขาย ad inventory หรือ recommend ของที่ทำกำไรให้ provider แทนที่จะปกป้องผู้ใช้
- Regulatory gap — quote ตรงๆ “policy and legal frameworks around AI models that transact on our behalf simply don’t exist yet”
ถ้าคุณทำงานสาย product หรือ founder ที่กำลังคิดทำ AI agent commerce คำถามที่ควรเริ่มถามตัวเองคือ tier pricing ของ agent service ในอนาคตจะกลายเป็นปัจจัยกำหนด consumer outcome ใหม่หรือเปล่า ไม่ใช่แค่ feature differentiation
เงิน + compute + อธิปไตย ไหลพร้อมกัน
Google เตรียมลงทุน Anthropic สูงสุด 0B + 5GW TPU (Story #12)

มีรายงานจาก TechCrunch ว่า Google เตรียมลงทุน Anthropic สูงสุด 40 พันล้านดอลลาร์ แบบ staged
| Tranche | จำนวน | เงื่อนไข |
|---|---|---|
| Initial cash | $10B | ทันที, valuation $350B |
| Conditional follow-on | $30B | ถ้า Anthropic hit milestones |
| Compute | 5 GW TPU | ผ่าน Google Cloud, 5 ปี (มี room ขยาย) |
บริบท Google เป็นทั้งคู่แข่ง (Gemini) และ infra supplier (TPU + Cloud) ของ Anthropic พร้อมกัน Anthropic พึ่ง Google Cloud + TPU หนักมาก
Anthropic เก็บเงิน + compute หนักมากในเดือนนี้
- ต้นเดือน: partnership กับ Google + Broadcom สำหรับ 3.5 GW TPU เริ่ม 2027
- 20 เมษายน: $5B จาก Amazon + commit ใช้จ่ายสูงสุด $100B กับ CoreWeave
บทเรียน quote จาก TechCrunch: “AI race is increasingly defined by access to the compute” model ดียังไม่พอ ต้องมี GW capacity ระดับ utility-scale ด้วย — ไม่งั้น scaling ไม่ขึ้น
ระวัง: นี่คือ report ไม่ใช่ official announcement ตัวเลขอาจขยับ
Meta + AWS Graviton5 หลายล้าน core สำหรับ agentic AI (Story #9)

Meta จับมือ AWS วาง AWS Graviton5 หลายสิบล้าน core เข้าระบบ compute ของตัวเอง — กลายเป็น Graviton customer รายใหญ่ที่สุดรายหนึ่งของโลก
ทำไม CPU ไม่ใช่ GPU AWS ขายว่า workload agentic AI จริงๆ คือ autonomous reasoning + planning + complex task execution ที่ CPU-bound ไม่ใช่แค่ training/inference ที่ GPU-bound ตัว Graviton5 (ARM-based) ให้ data processing speed + bandwidth ที่เหมาะกับ continuous reasoning loop
Strategic framing Meta บอกว่า “building AI at Meta’s scale requires a diversified approach to infrastructure” — ลงทุนทั้ง custom silicon ของตัวเอง + partner cloud + ประเมินทุก architecture
AWS quote: “purpose-built silicon with the full AWS AI stack to power the next generation of agentic AI” — Nafea Bshara (AWS VP)
แปลว่า agent workload กำลังกลายเป็น first-class infrastructure category ไม่ใช่แค่ extension ของ LLM inference ใครออกแบบ stack agent ตอนนี้ต้องคิด CPU + GPU + accelerator พร้อมกัน
Cohere + Aleph Alpha รวมร่าง — Schwarz Group ลงเงิน $600M ทำ sovereign AI (Story #10)

Cohere (แคนาดา) + Aleph Alpha (เยอรมนี) ประกาศควบรวมเป็นบริษัท sovereign AI ระดับโลก
| Detail | Value |
|---|---|
| Lead investor | Schwarz Group (parent ของ Lidl, Kaufland) |
| Commitment | €500M (~$600M) Series E structured financing |
| Cloud infra | STACKIT (Schwarz Digits’ sovereign cloud) |
| Target market | $600B ของตลาด AI services $1T |
Quote Aidan Gomez (co-founder): “Organizations globally are demanding uncompromising control over their AI stack.”
เป้าหมาย public sector, financial services, defense, energy, manufacturing, telecoms, healthcare — ทั้งหมดเป็น regulated industry ที่ห่วงเรื่อง data sovereignty + regulatory compliance
ภาพรวม EU + Canada กำลังจัดตัวเป็น G7 transatlantic counter-bloc กับ AI consolidation ของสหรัฐ (OpenAI + Anthropic + Google + Meta) ใครทำงานสาย gov/enterprise ในยุโรปจะเห็นชื่อนี้บ่อยขึ้นในปีหน้า
ComfyUI ปิดรอบ $30M (valuation $500M) — สัญญาว่าจะ open source ตลอดไป (Story #11)

ComfyUI ปิดรอบ $30M ที่ valuation $500M total raised ขึ้นเป็น $47M
| Investor | Role |
|---|---|
| Craft Ventures | Lead |
| Pace Capital | Participate |
| Chemistry | Participate |
| TruArrow | Participate |
Community metrics
- 4 ล้าน user
- 60,000+ community-built node
- 150,000+ daily download
Use of funds Comfy Cloud (สำหรับทีมที่ไม่มี local compute), collaborative workflow (share + version + iterate), local experience stability, ecosystem standard สำหรับ community node, day-one model integration
Open source commitment “จะเปิด open source ตลอดไป” — local self-host จะมีตลอด
ที่น่าสนใจคือ “ComfyUI artist” กลายเป็น job title แล้ว สำหรับงาน creative production pipeline ที่ครอบ image, video, 3D, audio พร้อมกัน
สรุป
ถ้าจำได้แค่เรื่องเดียววันนี้ ให้จำเรื่อง Project Deal — Opus ทำเงินได้มากกว่า Haiku ดีลละ $2.68 แต่คนใช้แยกไม่ออกว่า agent ตัวเองห่วยกว่า ในตลาดจริงนี่คือความเหลื่อมล้ำที่เกิดเงียบๆ ส่วนเรื่องอื่นคือ supporting context: open source ไล่ทันแล้ว (DeepSeek-V4, GPT-5.5, StepAudio), เครื่องมือ dev เริ่ม assume cross-device (Claude Code teleport, Hermes, OpenClaw), และเงินกับ compute ไหลทะลัก ($40B Google→Anthropic, Cohere/Aleph Alpha sovereign play, Meta-AWS CPU agentic, ComfyUI $30M)
Action items วันนี้ถ้าคุณเป็น dev ไทย
- ถ้าใช้ DeepSeek API: เตรียม migrate ไป
deepseek-v4-flashก่อน 24 กรกฎาคม 2026 - ถ้าใช้ GPT-5.4: ลอง
$openai-docs migrate this project to gpt-5.5ใน Codex - ถ้ากำลังคิดทำ AI agent ที่ทำธุรกรรมแทนผู้ใช้: อ่าน Project Deal report เต็มก่อน ที่ anthropic.com/features/project-deal
แหล่งข้อมูล
- DeepSeek-V4 release notes
- OpenAI GPT-5.5 latest model guide
- StepFun StepAudio 2.5 ASR (WeChat)
- Claude Code
- Hermes Agent v0.11.0 release
- OpenClaw 2026.4.23 release
- NotebookLM source auto-tagging
- Anthropic Project Deal
- Meta x AWS Graviton5
- Cohere x Aleph Alpha alliance
- ComfyUI raises $30M
- TechCrunch — Google to invest up to $40B in Anthropic
- imjuya/juya-ai-daily 2026-04-25
Confidence: ตัวเลข DeepSeek-V4 + GPT-5.5 + Project Deal + TechCrunch verified จาก primary source. StepAudio + Claude Code teleport เป็น Juya-only fallback (WeChat CAPTCHA + claude.ai/code 403 — ตัวเลข StepAudio รอ third-party confirm). Google→Anthropic deal เป็น report ไม่ใช่ official announcement.