ข้ามไปยังเนื้อหา

Open source ไล่ทันแล้ว แต่บิลค่า agent เพิ่งเริ่มมา

วันที่ 25 เมษายน 2026 เป็นวันที่ AI stack ทั้ง 3 ชั้นขยับพร้อมกัน ที่ชั้น model layer DeepSeek เปิด V4 ที่ benchmark ภายในเข้าใกล้ Claude Opus 4.6 พร้อมทิ้ง weights ให้ดาวน์โหลด ที่ชั้น agent layer Cl.

อ่าน 20 นาที
Original work by ii23 (gpt-image-2 bento composition)

Open source ไล่ทันแล้ว แต่บิลค่า agent เพิ่งเริ่มมา

วันที่ 25 เมษายน 2026 เป็นวันที่ AI stack ทั้ง 3 ชั้นขยับพร้อมกัน ที่ชั้น model layer DeepSeek เปิด V4 ที่ benchmark ภายในเข้าใกล้ Claude Opus 4.6 พร้อมทิ้ง weights ให้ดาวน์โหลด ที่ชั้น agent layer Claude Code ออก teleport ข้าม device, Hermes Agent กับ OpenClaw รื้อใหม่หมดให้ agent ผ่าน OAuth ไม่ต้องถือ API key อีก ที่ชั้น capital layer มีรายงานว่า Google จะลงทุน Anthropic สูงสุด 40 พันล้านดอลลาร์ บวก 5 กิกะวัตต์ TPU ใน 5 ปี แต่เรื่องที่ผมว่าสำคัญที่สุดคือ Project Deal จาก Anthropic — งานทดลองที่พิสูจน์ว่า agent คุณภาพต่างกันทำเงินต่างกันชัดเจน แต่คนใช้แยกไม่ออกว่ากำลังโดนเอาเปรียบ ไม่มีใครพูดเรื่องนี้พร้อมข่าวเงินทุน แต่ผมว่ามันคือคำเตือนของวันนี้

Open source ไล่ทันโมเดลปิดแล้ว

DeepSeek-V4 ปล่อยพร้อมเปิด weights — Pro รุ่น 1.6T context 1M (Story #1)

DeepSeek-V4 Pro และ Flash benchmark chart

DeepSeek ปล่อย DeepSeek-V4 พร้อมกัน 2 รุ่น และเปิด weights บน HuggingFace + ModelScope ทันที

รุ่นTotal paramsActiveContextOutput max
V4-Pro1.6T49B1M token384K
V4-Flash284B13B1M token384K

ทั้งสองตัวเป็น MoE (Mixture of Experts — โมเดลที่กระตุ้นแค่บางส่วนของพารามิเตอร์ต่อคำถาม) สถาปัตยกรรมใหม่ใช้ token-level compression บวก DSA (DeepSeek Sparse Attention) ซึ่งเป็นเหตุผลที่ทำ context 1 ล้าน token ได้โดยไม่ระเบิด memory

ทำไม benchmark ภายในมันน่าตกใจ เอกสาร DeepSeek อ้างว่า V4-Pro-Max mode บน Agentic Coding ดีกว่า Sonnet 4.5 และคุณภาพเข้าใกล้ Opus 4.6 non-reasoning ส่วน world knowledge แพ้ Gemini-Pro-3.1 แค่นิดเดียว ส่วน reasoning เกินทุกตัวที่เป็น open source และเสมอกับ closed source ระดับ world-class

แปลว่าอะไรกับ dev ไทย เดือนนี้ถ้าคุณอยู่ project ที่กลัวจ่าย Claude API หรือ OpenAI rate limit จนระเบิด ทางเลือก self-host เพิ่งกระโดดขึ้นมาอีกขั้น 1M context หมายความว่าโยน repo ทั้งก้อนเข้าไปใน prompt เดียวได้ — ไม่ต้องทำ RAG (retrieval augmented generation) กับโค้ดเบสเล็ก-กลาง

API ใช้ base_url เดิม model name deepseek-v4-pro หรือ deepseek-v4-flash รองรับทั้ง OpenAI ChatCompletions และ Anthropic format มี reasoning_effort แบบ high/max ให้เลือก

ระวัง deadline ตัวเก่า deepseek-chat กับ deepseek-reasoner จะปิดในอีก 3 เดือน คือประมาณ 24 กรกฎาคม 2026 ถ้า production ยังเรียก model name เก่าอยู่ เริ่ม migrate ตั้งแต่ตอนนี้ DeepSeek redirect ให้ก่อนเป็น V4-Flash non-reasoning + reasoning ตามลำดับ แต่อย่ารอวันสุดท้าย

OpenAI ปล่อย GPT-5.5 + Pro บน API (Story #2)

GPT-5.5 API documentation

Sam Altman ประกาศ GPT-5.5 กับ Pro version พร้อมใช้งานบน API แล้ว ออกแบบมาเพื่อ workflow production ที่ซับซ้อน เน้น coding, tool-heavy agent, long-context retrieval และ customer-facing app ที่ต้องการ execution quality สูง

ของใหม่ที่ dev ต้องรู้

  • reasoning_effort default เป็น medium แล้ว — เก่าต้องตั้งเอง รุ่นนี้ตั้งให้เลย
  • ใช้ token น้อยลงแต่ผลคงที่ ที่ effort level เดียวกัน — ลดบิล
  • Settings: low | medium | high | xhigh | none (none สำหรับ workload ที่ต้องการ latency ต่ำ)
  • Tool selection แม่นกว่าเดิม รองรับ tool surface ใหญ่ + multi-step
  • Image: ถ้า image_detail เป็น auto รองรับภาพได้ถึง 10.24 ล้านพิกเซล หรือมิติ 6,000 พิกเซล

Migration OpenAI Docs Skill ใน Codex มีคำสั่ง $openai-docs migrate this project to gpt-5.5 ที่ทำงาน automated migration ให้ ใครยังใช้ GPT-5.4 อยู่ อย่าเพิ่ง refactor ด้วยมือ

Recommended prompting style เปลี่ยน OpenAI แนะนำให้ระบุ outcome กับ success criteria ตรงๆ และ ตัด step-by-step process guidance ออก เพราะรุ่นนี้วางแผนเองได้ดีกว่า ใช้ Structured Outputs แทนการเขียน schema ใน prompt prompt cache friendly คือเอา static content ขึ้นต้น dynamic ลงท้าย

StepFun ปล่อย StepAudio 2.5 ASR — ฟังเสียง 30 นาทีรอบเดียว (Story #3)

StepAudio 2.5 ASR demo

StepFun (อาลีเป่ย / 阶跃星辰) เปิด StepAudio 2.5 ASR โมเดล speech recognition ที่เอา LLM reasoning acceleration มาใช้กับ ASR สถาปัตยกรรมชื่อ ASR+MTP-5

Specตัวเลข
Decode speed (vs prev gen)4 เท่า
Latency-60%
Inference peak500 tokens/s
Inference cost-80%
Context window32K (LLM-native)
Continuous audio per pass30 นาที

ทำไมเรื่อง 30 นาทีรอบเดียวสำคัญ ระบบ ASR เดิมต้องตัด audio เป็น chunk แล้วเอา transcript มาต่อกัน ปัญหาคือมัน lose context ตรงรอยต่อ ชื่อเฉพาะ คำซ้ำ หรือ pronoun อ้างอิงข้ามรอยต่อจะพัง StepAudio บอกว่าจัดการ 30 นาทีจบในรอบเดียว — แปลว่า meeting 30 นาทีหรือ podcast 1 ตอนสั้น ๆ ถอดได้สมบูรณ์โดยไม่ต้องเย็บ chunk

ตอนนี้ขึ้น Step Plan + open platform ของ StepFun แล้ว มี demo center ให้ทดลอง

หมายเหตุ: ข้อมูลส่วนใหญ่มาจาก Juya summary เพราะเว็บต้นทาง WeChat บล็อก crawler ตัวเลขทุกตัวเป็น claim ของ StepFun เอง รอ third-party benchmark

Agent layer กำลังย้ายบ้าน

Claude Code ออก teleport — เริ่มเว็บ จบ CLI ไม่เสีย state (Story #4)

Claude Code refreshed Web UI

ClaudeDevs ทำใหม่หมดทั้ง Web Claude Code

  • Visual design Web ตรงกับ desktop app
  • เพิ่ม conversation sidebar
  • Drag-and-drop layout
  • Refreshed routine view
  • รื้อ underlying architecture เพื่อความเร็ว + reliability

แต่ ของใหญ่ที่สุดคือ teleport เปิด session บนเว็บหรือมือถือ พิมพ์ claude --teleport เด้งกลับมา terminal CLI ต่อได้เลย พร้อม history เต็ม + branch state ที่ถูกต้อง

แปลว่าอะไร Anthropic กำลังเลิก assume ว่า agent อยู่ device เดียว สมัยก่อน CLI/web/mobile เป็น 3 product ต่างหาก ใช้แล้วต้อง copy-paste กันเอง ตอนนี้กลายเป็น 1 session ที่กระโดดข้าม surface ได้ ถ้าเริ่ม coding บนมือถือระหว่าง commute แล้วถึงโต๊ะ พิมพ์คำสั่งเดียวจบ

ที่น่าสนใจคือ pattern นี้กำลังกลายเป็นมาตรฐาน — สังเกตว่า Hermes Agent กับ OpenClaw ในข่าวถัดไปก็เพิ่ม transport layer + OAuth-based cross-surface เหมือนกัน

Hermes Agent v0.11.0 — รื้อ TUI ใหม่ + 5 inference path (Story #5)

Hermes Agent v0.11.0 release

NousResearch ปล่อย Hermes Agent v0.11.0 วันที่ 23 เมษายน 2026 — เรียกว่าเป็น largest update to date

Interface rewrite TUI ใหม่หมดด้วย React/Ink มี Python JSON-RPC backend (tui_gateway) มี sticky composer, live streaming + clipboard, status bar แสดงเวลาที่ผ่านไป + Git branch

Transport layer pluggable แยก format conversion + HTTP transport เป็น plugin layer รองรับ: AnthropicTransport, ChatCompletionsTransport, ResponsesApiTransport, BedrockTransport — headline คือ native AWS Bedrock support

5 inference path ใหม่

  • NVIDIA NIM (native)
  • Arcee AI (direct)
  • Step Plan
  • Google Gemini CLI OAuth
  • Vercel ai-gateway (พร้อม dynamic pricing discovery)
  • GPT-5.5 ผ่าน Codex OAuth (live model picker)

QQBot = platform ที่ 17 มี QR-scan-to-configure wizard, streaming cursor, emoji reactions, DM/group policy gating

Plugin surface ขยายใหญ่ plugins ลงทะเบียน slash command, dispatch tool โดยตรง, block tool execution, transform tool result, rewrite terminal output, custom image gen backend, dashboard tab extensions

Mid-run steering คำสั่ง /steer <prompt> แทรก correction ระหว่าง agent กำลังทำงาน — ไม่ต้อง interrupt เพิ่ม sub-agent orchestrator role + cross-agent file coordination ป้องกัน edit conflict

ผลรวม: 290 contributors ในรอบนี้

OpenClaw 2026.4.23 — Codex OAuth ไม่ต้องถือ key + security hardening (Story #6)

OpenClaw 2026.4.23 release

OpenClaw ปล่อย 2026.4.23 วันเดียวกับวันนี้

Image gen ผ่าน Codex OAuth openai/gpt-image-2 ทำงานได้โดยไม่ต้องตั้ง OPENAI_API_KEY (ใช้ Codex OAuth แทน) — pattern เดียวกับ Hermes ส่วน OpenRouter รองรับ image gen ผ่าน image_generate tool ที่ใช้ OPENROUTER_API_KEY

Models bundled Pi packages ขึ้น v0.70.0 + upstream gpt-5.5 catalog metadata + local gpt-5.5-pro forward-compat

Sub-agents เพิ่ม optional forked context สำหรับ sessions_spawn — child agent inherit transcript ของ requester ได้ + per-call timeoutMs สำหรับ image, video, music, TTS

Memory configurable memorySearch.local.contextSize (default 4096) สำหรับ host ที่ memory จำกัด + root memory canonicalize เป็น MEMORY.md + decoupled managed dreaming cron จาก heartbeat

Security เป็น theme หลักของรอบนี้ Teams Bot Framework: audience token ต้องมี verified appid/azp + Discord slash-command channel policy enforcement + QQBot /bot-approve framework auth + Android cleartext จำกัดแค่ loopback + mobile pairing ต้องเป็น private-IP host + plugin setup-api lookup path restrictions

ที่น่าสนใจคือ Discord, Teams, QQBot โดน hardening ทั้งหมด — สัญญาณว่า production deployment ของ agent บน chat platform กำลังเจอปัญหา security จริงในวงกว้าง

NotebookLM auto-tag source (Story #7)

NotebookLM auto-tagging demo

NotebookLM เพิ่ม auto-labeling + categorization ของ source

  • Trigger: 5 source ขึ้นไป
  • Auto-tag + จัดกลุ่มอัตโนมัติ
  • ผู้ใช้ rename, reorganize, ตั้ง emoji ได้

ฟีเจอร์เล็กแต่สำคัญสำหรับคนที่ใช้ NotebookLM เป็น research workspace จริง — ปกติพอ source เกิน 20-30 อันก็เริ่มหาไม่เจอ ตอนนี้ระบบจัดให้เอง ปล่อยทะยอยใช้แล้ว

Anthropic ส่ง bill มาให้คนทั้งวงการดู

Project Deal — เมื่อ Opus ต่อราคาดีกว่า Haiku $2.68 ต่อชิ้น แต่คนแยกไม่ออก (Story #8)

Project Deal experiment overview

ผมว่านี่คือเรื่องสำคัญที่สุดของวันนี้ และไม่ใช่เพราะ benchmark

Anthropic ทดลอง Project Deal ที่ออฟฟิศ SF เดือน ธันวาคม 2025

Setup พนักงาน 69 คน คนละ $100 (จ่ายเป็น gift card บวก/ลบมูลค่า transaction) แต่ละคนสัมภาษณ์กับ Claude 10 นาทีเพื่อบอก buy/sell intention, expected price, negotiation style → Claude สร้าง custom Agent ให้แต่ละคน → agent ไป trade ใน Slack 4 marketplace ขนานกัน

RunModelบทบาท
Run AAll Opus 4.5Real run — แลกของจริง
Run B50/50 Opus + Haiku 4.5Mixed comparison
Run C50/50 Opus + Haiku 4.5Mixed comparison
Run DAll OpusAdditional data

ผลลัพธ์รวม 186 ดีล จาก 500+ ของขายในระบบ มูลค่ารวม $4,000+ avg fairness rating 4.0/7 (กลาง)

แต่นี่คือเลขที่ผม ‌ฟังแล้วหนาวสันหลัง

Opus vs Haiku — Opus ชนะทุกตัวเลข

MetricOpus advantage
ดีลปิดเพิ่มเฉลี่ย+2.07 ดีล/คน (statistically significant)
ขาย: ราคาเฉลี่ยต่อชิ้น+$3.64
Seller premium+$2.68
Buyer cost saving-$2.45
Sale likelihood+~7pp (NOT statistically significant)

ที่หนาวคือ perception gap

  • 17 จาก 28 จัดอันดับ Opus run สูงกว่า, 11 จัดอันดับ Haiku สูงกว่า → คนแยกไม่ออกว่า agent ตัวเองห่วยกว่า
  • Satisfaction rating: ไม่มีความต่างทางสถิติ
  • Fairness perception: 4.05 vs 4.06 — เท่ากันเด๊ะ

Prompting style ไม่มีผลทางสถิติ สั่งให้ “aggressive” หรือ “polite” ก็ไม่ทำให้ปิดดีลได้มากขึ้นหรือต่อราคาได้ดีขึ้น คุณภาพ model สำคัญกว่าวิธีพูด

แต่ตัวเลขที่ต้องจำคือ 46% บอกว่ายอมจ่ายเงินจริงเพื่อบริการแบบนี้ — แปลว่าตลาด AI agent ที่ซื้อขายแทนเรากำลังจะเกิดจริง ไม่ใช่ research toy

Anthropic flag ความเสี่ยงเอง อ้างจากเอกสาร

Inequality taking root quietly

แปลตรงๆ คือความเหลื่อมล้ำที่เกิดเงียบๆ ในตลาดจริงคนที่จ่าย Opus tier ไหวจะได้ราคาดีกว่า คนที่จ่ายไม่ไหวต้องใช้ Haiku tier — แล้วไม่รู้ตัวเลยว่าโดนเอาเปรียบ เพราะ rating ความพึงพอใจดูเหมือนกัน

ความเสี่ยงอื่นที่ Anthropic flag

  • Information security — jailbreaking + prompt injection บน agent ที่ถือเงินจริง
  • Incentive misalignment — ถ้า commercial pressure ให้ agent ขาย ad inventory หรือ recommend ของที่ทำกำไรให้ provider แทนที่จะปกป้องผู้ใช้
  • Regulatory gap — quote ตรงๆ “policy and legal frameworks around AI models that transact on our behalf simply don’t exist yet”

ถ้าคุณทำงานสาย product หรือ founder ที่กำลังคิดทำ AI agent commerce คำถามที่ควรเริ่มถามตัวเองคือ tier pricing ของ agent service ในอนาคตจะกลายเป็นปัจจัยกำหนด consumer outcome ใหม่หรือเปล่า ไม่ใช่แค่ feature differentiation

เงิน + compute + อธิปไตย ไหลพร้อมกัน

Google เตรียมลงทุน Anthropic สูงสุด 0B + 5GW TPU (Story #12)

Google Anthropic deal

มีรายงานจาก TechCrunch ว่า Google เตรียมลงทุน Anthropic สูงสุด 40 พันล้านดอลลาร์ แบบ staged

Trancheจำนวนเงื่อนไข
Initial cash$10Bทันที, valuation $350B
Conditional follow-on$30Bถ้า Anthropic hit milestones
Compute5 GW TPUผ่าน Google Cloud, 5 ปี (มี room ขยาย)

บริบท Google เป็นทั้งคู่แข่ง (Gemini) และ infra supplier (TPU + Cloud) ของ Anthropic พร้อมกัน Anthropic พึ่ง Google Cloud + TPU หนักมาก

Anthropic เก็บเงิน + compute หนักมากในเดือนนี้

  • ต้นเดือน: partnership กับ Google + Broadcom สำหรับ 3.5 GW TPU เริ่ม 2027
  • 20 เมษายน: $5B จาก Amazon + commit ใช้จ่ายสูงสุด $100B กับ CoreWeave

บทเรียน ‌quote จาก TechCrunch: “AI race is increasingly defined by access to the compute” model ดียังไม่พอ ต้องมี GW capacity ระดับ utility-scale ด้วย — ไม่งั้น scaling ไม่ขึ้น

ระวัง: นี่คือ report ไม่ใช่ official announcement ตัวเลขอาจขยับ

Meta + AWS Graviton5 หลายล้าน core สำหรับ agentic AI (Story #9)

Meta AWS Graviton5 partnership

Meta จับมือ AWS วาง AWS Graviton5 หลายสิบล้าน core เข้าระบบ compute ของตัวเอง — กลายเป็น Graviton customer รายใหญ่ที่สุดรายหนึ่งของโลก

ทำไม CPU ไม่ใช่ GPU AWS ขายว่า workload agentic AI จริงๆ คือ autonomous reasoning + planning + complex task execution ที่ CPU-bound ไม่ใช่แค่ training/inference ที่ GPU-bound ตัว Graviton5 (ARM-based) ให้ data processing speed + bandwidth ที่เหมาะกับ continuous reasoning loop

Strategic framing Meta บอกว่า “building AI at Meta’s scale requires a diversified approach to infrastructure” — ลงทุนทั้ง custom silicon ของตัวเอง + partner cloud + ประเมินทุก architecture

AWS quote: “purpose-built silicon with the full AWS AI stack to power the next generation of agentic AI” — Nafea Bshara (AWS VP)

แปลว่า agent workload กำลังกลายเป็น first-class infrastructure category ไม่ใช่แค่ extension ของ LLM inference ใครออกแบบ stack agent ตอนนี้ต้องคิด CPU + GPU + accelerator พร้อมกัน

Cohere + Aleph Alpha รวมร่าง — Schwarz Group ลงเงิน $600M ทำ sovereign AI (Story #10)

Cohere Aleph Alpha alliance

Cohere (แคนาดา) + Aleph Alpha (เยอรมนี) ประกาศควบรวมเป็นบริษัท sovereign AI ระดับโลก

DetailValue
Lead investorSchwarz Group (parent ของ Lidl, Kaufland)
Commitment€500M (~$600M) Series E structured financing
Cloud infraSTACKIT (Schwarz Digits’ sovereign cloud)
Target market$600B ของตลาด AI services $1T

Quote Aidan Gomez (co-founder): “Organizations globally are demanding uncompromising control over their AI stack.”

เป้าหมาย public sector, financial services, defense, energy, manufacturing, telecoms, healthcare — ทั้งหมดเป็น regulated industry ที่ห่วงเรื่อง data sovereignty + regulatory compliance

ภาพรวม EU + Canada กำลังจัดตัวเป็น G7 transatlantic counter-bloc กับ AI consolidation ของสหรัฐ (OpenAI + Anthropic + Google + Meta) ใครทำงานสาย gov/enterprise ในยุโรปจะเห็นชื่อนี้บ่อยขึ้นในปีหน้า

ComfyUI ปิดรอบ $30M (valuation $500M) — สัญญาว่าจะ open source ตลอดไป (Story #11)

ComfyUI funding announcement

ComfyUI ปิดรอบ $30M ที่ valuation $500M total raised ขึ้นเป็น $47M

InvestorRole
Craft VenturesLead
Pace CapitalParticipate
ChemistryParticipate
TruArrowParticipate

Community metrics

  • 4 ล้าน user
  • 60,000+ community-built node
  • 150,000+ daily download

Use of funds Comfy Cloud (สำหรับทีมที่ไม่มี local compute), collaborative workflow (share + version + iterate), local experience stability, ecosystem standard สำหรับ community node, day-one model integration

Open source commitment “จะเปิด open source ตลอดไป” — local self-host จะมีตลอด

ที่น่าสนใจคือ “ComfyUI artist” กลายเป็น job title แล้ว สำหรับงาน creative production pipeline ที่ครอบ image, video, 3D, audio พร้อมกัน

สรุป

ถ้าจำได้แค่เรื่องเดียววันนี้ ให้จำเรื่อง Project Deal — Opus ทำเงินได้มากกว่า Haiku ดีลละ $2.68 แต่คนใช้แยกไม่ออกว่า agent ตัวเองห่วยกว่า ในตลาดจริงนี่คือความเหลื่อมล้ำที่เกิดเงียบๆ ส่วนเรื่องอื่นคือ supporting context: open source ไล่ทันแล้ว (DeepSeek-V4, GPT-5.5, StepAudio), เครื่องมือ dev เริ่ม assume cross-device (Claude Code teleport, Hermes, OpenClaw), และเงินกับ compute ไหลทะลัก ($40B Google→Anthropic, Cohere/Aleph Alpha sovereign play, Meta-AWS CPU agentic, ComfyUI $30M)

Action items วันนี้ถ้าคุณเป็น dev ไทย

  • ถ้าใช้ DeepSeek API: เตรียม migrate ไป deepseek-v4-flash ก่อน 24 กรกฎาคม 2026
  • ถ้าใช้ GPT-5.4: ลอง $openai-docs migrate this project to gpt-5.5 ใน Codex
  • ถ้ากำลังคิดทำ AI agent ที่ทำธุรกรรมแทนผู้ใช้: อ่าน Project Deal report เต็มก่อน ที่ anthropic.com/features/project-deal

แหล่งข้อมูล

Confidence: ตัวเลข DeepSeek-V4 + GPT-5.5 + Project Deal + TechCrunch verified จาก primary source. StepAudio + Claude Code teleport เป็น Juya-only fallback (WeChat CAPTCHA + claude.ai/code 403 — ตัวเลข StepAudio รอ third-party confirm). Google→Anthropic deal เป็น report ไม่ใช่ official announcement.