Giá cổ phiếu tăng vọt 32%, GLM-5 đứng đầu toàn cầu về mã nguồn mở, quay liền mạch trong 25 phút để tạo ra hệ thống hoàn chỉnh

Vào đêm ngày 7 tháng 2, một mô hình bí ẩn mang mã “Pony Alpha” đã âm thầm ra mắt.

Ngay sau đó, cộng đồng mạng quốc tế bùng nổ.

Chỉ cần đưa vào một đoạn “mã rác” đã sửa cả ngày chưa xong, nó đã tự tay tái cấu trúc lại kiến trúc; nhập một đoạn gợi ý đơn giản, nó có thể sinh ra một Web App hoàn chỉnh gồm 35 radio, UI mượt mà.

Khả năng kỹ thuật cực kỳ đỉnh cao này đã trực tiếp chứng minh lời khẳng định của Andrej Karpathy vài ngày trước:

Vibe Coding đã trở thành quá khứ, quy tắc chơi mới chỉ có một tên gọi —

Agentic Engineering (kỹ thuật tự hành).

Ngay sau đó, Opus 4.6 và GPT-5.3-Codex cùng lúc đêm khuya hôm sau “va chạm” ra mắt, toàn bộ chỉ bàn về “nhiệm vụ dài hạn, hệ thống kỹ thuật”.

Trong khi mọi người nghĩ đây lại là màn trình diễn độc diễn của các ông lớn đóng kín, thì bí mật của Pony Alpha đã được hé lộ—

Nó chính là GLM-5.

Mô hình mã nguồn mở đầu tiên trên thế giới đứng trên cùng một sân chơi này, đối đầu trực diện với các ông lớn Silicon Valley về khả năng hệ thống.

Sau khi bí mật được tiết lộ, giá cổ phiếu Zhiyu lập tức tăng vọt 32%!

Vị trí số một toàn cầu về mã nguồn mở! “Thời khắc Opus” của mô hình nội địa

Sau khi thực sự trải nghiệm, chúng tôi chỉ còn một cảm nhận: Quá mạnh mẽ!

Nếu Claude Opus đại diện cho đỉnh cao của mô hình đóng nguồn, thì việc ra mắt GLM-5 không còn nghi ngờ gì nữa, chính thức đánh dấu thời khắc “Opus” của mô hình mã nguồn mở nội địa.

Ngay trong ngày ra mắt, hơn chục trò chơi và công cụ do các nhà phát triển dựa trên GLM-5 “tự tay chế” đã đồng loạt trình diễn và cung cấp trải nghiệm, các ứng dụng này sau đó sẽ lần lượt cập nhật lên các kho ứng dụng lớn.

Điều này có nghĩa là, GLM-5 đang biến “lập trình AI” thành “giao hàng AI”, thực sự chuyển đổi công cụ năng suất thành sản phẩm thương mại một cách liền mạch.

Chẳng hạn như dự án mang tên “Pookie World”.

Là thế giới song song số hóa do GLM-5 điều khiển, qua nhiều lớp khung sinh học-tâm lý, nó trao cho các tự động trí tuệ nhân tạo khả năng kể chuyện chân thực và động lực sống.

Còn có bản sao “Minecraft”, hiệu ứng và lối chơi gần như y hệt.

Chúng tôi cũng dùng Claude Code làm khung, kết nối trực tiếp API của GLM-5 để thực hiện thử nghiệm đa chiều.

Dù là dự án full-stack Next.js hay ứng dụng gốc MacOS/iOS, đều có thể thực hiện toàn bộ quy trình từ phân tích yêu cầu, thiết kế kiến trúc, viết mã, đến debug end-to-end.

Sau nhiều dự án, trong tiềm thức có một cảm giác:

Ở một mức độ nào đó, có thể GLM-5 chính là một mô hình có thể thay đổi cục diện ngành.

· Thách thức logic phức tạp: “Vũ trụ tri thức vô hạn”

Nếu bạn nghĩ viết một trang web là đơn giản, hãy thử để AI xử lý một dự án “vô hạn dòng” yêu cầu nghiêm ngặt về định dạng JSON, đồng thời liên quan đến render động.

Chẳng hạn như dự án thử nghiệm đầu tiên của chúng tôi — “Vũ trụ tri thức vô hạn”.

Đây là một dự án phân tách front-end/back-end phức tạp điển hình, liên quan đến render động React Flow, thiết kế API Next.js, và yêu cầu xuất JSON cực kỳ nghiêm ngặt.

Về mặt này, hiệu suất của GLM-5 thực sự ấn tượng.

Nó không chỉ hoàn thành toàn bộ cấu trúc thư mục dự án trong một lần, mà còn gây ngạc nhiên với logic debug của nó.

Khi gặp lỗi render, chúng tôi chỉ nói một câu: “Trang vẫn đen, khi khởi tạo không xuất hiện nội dung đầu tiên…”

GLM-5 ngay lập tức xác định là vấn đề về thời điểm tải, và nhanh chóng đưa ra phương án sửa.

Các gợi ý đầy đủ như sau:

Vô hạn dòng·Hình dung khái niệm

Ý tưởng cốt lõi: Đây là một sơ đồ tư duy “vĩnh viễn không điểm dừng”. Người dùng nhập bất kỳ từ khóa nào (ví dụ “Vật lý lượng tử” hoặc “Hồng Lâu Mộng”), hệ thống sẽ tạo ra nút trung tâm. Nhấn vào bất kỳ nút nào, AI sẽ mở rộng các nút con theo thời gian thực.

Khoảnh khắc gây ấn tượng: Người dùng cảm giác như đang tương tác với một bộ não toàn tri. Khi họ thoải mái nhấn vào một khái niệm hiếm, AI vẫn có thể chính xác mở rộng các cấp tiếp theo, cảm giác “khám phá vô hạn” này thực sự gây ấn tượng.

Giao diện và truyền thông:

  • Sử dụng React Flow hoặc ECharts để tạo mạng lưới nút động, có thể kéo thả.

  • Màu sắc theo phong cách Cyberpunk hoặc tối giản, rất phù hợp để chụp ảnh chia sẻ mạng xã hội.

Giải pháp khả thi:

  • Front-end: React + React Flow (vẽ đồ thị).

  • Back-end: API Route Next.js.

  • Chiến lược Prompt: Không cần ghi nhớ ngữ cảnh phức tạp, chỉ cần yêu cầu AI tạo ra 5-6 nút liên quan cho “nút hiện tại” và trả về định dạng JSON.

  • Thách thức chính: Làm sao để mô hình xuất ra JSON ổn định (đây là tình huống thử nghiệm khả năng tuân thủ lệnh của mô hình).

· Dự án trung tâm phức tạp hơn, xây trong 11 phút

Tiếp theo, tăng độ khó, yêu cầu nó phát triển một ứng dụng phân tích tâm lý mang tên “Soul Mirror”.

Yêu cầu gồm hai bước:

Bước 1: Thiết kế logic — đóng vai chuyên gia tâm lý Jung, xuất JSON gồm phân tích và tham số hình ảnh.

Bước 2: Thực thi front-end, vẽ SVG động dựa trên tham số.

Gợi ý:

Bước 1: Thiết kế logic

Chúng ta phát triển một ứng dụng “Soul Mirror” để phân tích tâm lý.

Quy trình tương tác:

  1. Trang giới thiệu: người dùng nhập trạng thái hoặc bối rối hiện tại.

  2. Trang phân tích: AI đặt ra 2 câu hỏi sâu, dẫn dắt người dùng khám phá nội tâm.

  3. Trang kết quả: dựa trên hội thoại, AI tạo ra một “bức tranh tâm hồn”.

Thiết kế Prompt cốt lõi (System Instruction): yêu cầu mô hình đóng vai chuyên gia tâm lý Jung. Ở bước cuối, mô hình cần xuất JSON gồm:

  • analysis: văn bản phân tích tâm lý.

  • visualParams: một tập các tham số để tạo hình nghệ thuật trừu tượng (ví dụ colorPalette (mảng màu hex), shapes (hình tròn/ tam giác/ sóng), chaosLevel (độ hỗn loạn)).

Bước 2: Thực thi front-end và vẽ SVG

Viết mã Next.js cho phần ResultCard.

Yêu cầu:

  1. Nhận tham số visualParams từ bước 1.

  2. Sử dụng SVG để vẽ hình động. Ví dụ: chaosLevel cao thì dùng Path không đều; colorPalette ấm thì nền gradient cam đỏ.

  3. Bố cục card đẹp như một lá bài Tarot: trung tâm là hình SVG động, phía dưới là tên người dùng và “Lời nhắc tâm hồn” của AI.

  4. Thêm nút “Lưu thành hình” (dùng thư viện html-to-image).

Trong toàn bộ quá trình, khả năng hiểu của nó thường khiến người ta nghi ngờ có phải đang dùng Opus 4.5.

Nhưng chỉ cần nhìn qua, rõ ràng chính là GLM-5.

· 25 phút một mạch, mã nguồn tự hành thực sự

Để thử nghiệm khả năng của GLM-5 hơn nữa, chúng tôi yêu cầu nó không dùng API, hoàn toàn mô phỏng người dùng thật, để xây dựng một hệ thống giám sát nền tảng X.

Kết quả: 25 phút, một mạch không ngừng.

Có thể thấy, GLM-5 sẽ tự gọi các công cụ Agent trong quá trình chạy, lập kế hoạch nhiệm vụ, phân tích bước, gặp lỗi tự tra tài liệu sửa.

Khả năng duy trì logic liên tục trong thời gian dài như vậy, trước đây các mô hình mã nguồn mở còn không dám nghĩ.

· Vẽ app từ hình ảnh, độ chính xác thực sự đáng nể

Cuối cùng, chúng tôi còn đưa một ảnh chụp màn hình dự án mã nguồn mở của OpenClaw (công cụ thống kê hạn mức AI), trực tiếp gửi cho GLM-5:

Dựa vào đó, làm một ứng dụng MacOS đi.

Chẳng bao lâu sau, nó đã “tái tạo” ra một sản phẩm tương tự.

Dù dữ liệu là Mock, nhưng bố cục UI, logic tương tác gần như hoàn hảo.

Điều này không chỉ thể hiện khả năng hiểu hình ảnh, mà còn là năng lực chuyển đổi hình ảnh thành mã SwiftUI để triển khai kỹ thuật.

Chuyên gia tự tay chế: 1 ngày hoàn thiện “phiên bản thấp” của Cursor

Để kiểm chứng giới hạn kỹ thuật của GLM-5, một lập trình viên kỳ cựu quyết chơi lớn:

Tự tay xây một trợ lý lập trình AI có giao diện desktop — gọi là GLMLIFE.

Tương đương làm một phiên bản đơn giản của Cursor.

Giao nhiệm vụ cho GLM-5, nó không vội viết code, mà đưa ra một tài liệu kiến trúc chuyên nghiệp (PLAN.md), cùng các lựa chọn kỹ thuật rất chín chắn:

Chọn kiến trúc Monorepo, chia dự án thành 3 gói chính:

  • Core: xử lý engine Agent và thích ứng LLM;
  • CLI: xử lý giao diện dòng lệnh;
  • Desktop: dựa trên Electron + React 18 cho ứng dụng desktop.

Từ quản lý trạng thái với Zustand, đến thiết kế style với Tailwind, rồi đến giao tiếp IPC phức tạp, GLM-5 như một giám đốc kỹ thuật đã có thâm niên, sắp xếp các lựa chọn rõ ràng, hợp lý.

Chủ dự án ban đầu nghĩ phải mất 3 ngày để thiết lập môi trường, nhưng chỉ trong 1 ngày đã chạy được toàn bộ quy trình từ cài đặt, phát triển logic chính, đến đóng gói Electron.

Mở GLMLIFE ra, bạn khó mà tin đây là sản phẩm do AI “kiến trúc” trong một ngày.

Tại sao nó có thể trở thành “Opus của cộng đồng mã nguồn mở”?

Trên toàn cầu, Claude Opus 4.6 và GPT-5.3-Codex được săn đón vì khả năng “kiến trúc” cực mạnh của chúng.

  • Opus 4.6 đẹp mị lực: 16 AI tự phân công, mất hai tuần, xây dựng thành công trình compiler Rust gồm 100.000 dòng code, vượt qua 99% thử nghiệm áp lực của GCC.
  • GPT-5.3 tự sáng tạo: Là mô hình đầu tiên của OpenAI “tham gia tự tạo ra chính nó”, đã tham gia vào quá trình huấn luyện và triển khai trước khi ra đời.

Tuy nhiên, tất cả đều có một điều kiện tiên quyết chết người: chúng đều đóng nguồn, và rất đắt.

Giờ đây, việc ra mắt GLM-5 chính là một cú đấm mạnh vào thế giới mô hình lớn mã nguồn mở của Trung Quốc, mở ra một cuộc chơi “thay thế” trong kỷ nguyên Agentic.

Nó trực tiếp nhắm vào lĩnh vực các ông lớn không muốn buông tay nhất — khả năng hệ thống cấp cao — và tiến hành một cuộc tấn công “giá rẻ” kiểu thay thế.

  1. “Kiến trúc sư hậu cần mới”

Đội ngũ Zhiyu rất rõ, cộng đồng mã nguồn mở không thiếu các mô hình viết Python, thiếu là các mô hình có thể xử lý các công việc nặng, bẩn, lớn.

GLM-5 đã tăng cường đáng kể trọng số về thiết kế kiến trúc hệ thống, thực thi thuật toán phức tạp, và sửa lỗi cứng đầu, đồng thời còn có khả năng tự phản tỉnh rất mạnh.

Khi gặp lỗi biên dịch, nó tự phân tích logs, xác định nguyên nhân, sửa mã, biên dịch lại, cho đến khi hệ thống chạy trơn tru.

  1. Cứ làm việc là phải tính toán rõ ràng

Với hiệu năng sánh ngang Opus, cùng các trọng số mã nguồn mở, GLM-5 phần nào đã làm lung lay “vườn hoa” do Anthropic và OpenAI xây dựng.

  • Triển khai nội bộ: không chỉ chạy trong mạng nội bộ cách ly hoàn toàn, mà còn có thể tinh chỉnh phù hợp với framework riêng của công ty, trở thành nhân viên hiểu rõ mã của chính mình nhất.
  • Chi phí kiểm soát tốt: người dùng có thể dùng cluster card tiêu chuẩn để chạy một Coding Agent mạnh mẽ, không cần lo lắng về chi phí mỗi lần thử nghiệm.

Vượt mặt SOTA

Sự tiến hóa của GLM-5 chỉ có thể mô tả bằng hai từ: bạo lực.

Là mô hình nền tảng cho các hệ thống phức tạp, quy mô chắc chắn phải tối đa.

Số tham số từ 355B (kích hoạt 32B) lên tới 744B (kích hoạt 40B), dữ liệu huấn luyện từ 23T tăng lên 28.5T.

Ngoài “lớn” còn phải “tiết kiệm”.

Ai cũng biết, chạy mô hình Agent tốn kém nhất chính là Token.

Để giải quyết vấn đề này, GLM-5 lần đầu tiên tích hợp cơ chế DeepSeek Sparse Attention (chú ý r sparse).

Điều này giúp nó xử lý các đoạn văn dài hơn mà vẫn giữ được “không mất mát” khả năng ghi nhớ, đồng thời giảm đáng kể chi phí triển khai.

Thêm vào đó, còn có công nghệ “độc quyền” — khung học tăng cường bất đồng bộ Slime.

Kết hợp với học tăng cường quy mô lớn, giúp mô hình không còn là “công cụ dùng một lần”, mà trở thành “vận động viên dài hạn” ngày càng thông minh hơn.

Về điểm số, còn rất “ngầu”:

  • Khả năng lập trình

    SWE-bench xác nhận đạt 77.8 điểm, Terminal Bench 2.0 đạt 56.2 điểm, đều đứng đầu mã nguồn mở. Thành tích này vượt cả Gemini 3.0 Pro, gần như “đè bẹp” Claude Opus 4.5.

  • Khả năng Agent

    BrowseComp (tìm kiếm qua mạng), MCP-Atlas (gọi công cụ), τ²-Bench (lập kế hoạch phức tạp), đều đứng đầu bảng mã nguồn mở.

Điều thú vị nhất là Vending Bench 2 (kiểm tra vận hành máy bán hàng tự động).

Trong thử nghiệm này, mô hình phải tự quản lý vận hành một năm các máy bán hàng.

Bạn đoán xem, đến cuối năm, GLM-5 đã kiếm được 4432 USD, gần như sánh ngang Opus 4.5.

Trong bộ đánh giá nội bộ mà các nhà phát triển quan tâm nhất, gồm các nhiệm vụ lập trình front-end, back-end, nhiệm vụ dài hạn, GLM-5 rõ ràng vượt xa thế hệ trước là GLM-4.7 (tăng trung bình hơn 20%).

Cảm nhận thực tế đã gần như chạm tới Opus 4.5.

Dùng AI tạo AI

Dĩ nhiên, tham vọng của GLM-5 không chỉ dừng lại ở mô hình, mà còn muốn tái cấu trúc các công cụ lập trình của chúng ta.

OpenClaw nổi tiếng toàn cầu đã cho thấy tiềm năng AI thao tác máy tính.

Lần này, Zhiyu cũng ra mắt phiên bản AutoGLM của OpenClaw.

Dùng bản gốc, chỉ môi trường cài đặt đã mất nửa ngày, còn bây giờ chỉ cần một cú click để triển khai.

Muốn có một “thực tập sinh kỹ thuật số” 24/7 theo dõi Twitter, tổng hợp tin tức, thậm chí viết script? Chỉ cần nhấn một nút.

Cùng lúc đó, còn có Z Code—

Công cụ phát triển thế hệ mới dựa hoàn toàn trên năng lực của GLM-5.

Trong Z Code, bạn chỉ cần đề xuất yêu cầu, mô hình sẽ tự phân tích, chia nhỏ nhiệm vụ, thậm chí gọi nhiều Agent làm việc song song: viết code, chạy lệnh, debug, xem trước, cuối cùng còn giúp bạn commit Git.

Thậm chí, bạn còn có thể điều khiển từ xa qua điện thoại để chỉ đạo Agent trên desktop.

Đáng chú ý, giống như OpenAI dùng Codex tạo ra Codex, Z Code cũng chính là sản phẩm do mô hình GLM tham gia phát triển toàn bộ.

Chiến thắng sức mạnh tính toán nội địa

Sau khi GLM-5 gây sốt toàn cầu, nhu cầu Agent tăng vọt, có một nhóm “anh hùng vô danh” âm thầm gánh vác lượng tính toán khổng lồ.

Để đảm bảo mọi dòng code, mọi kế hoạch Agent đều ổn định, GLM-5 đã đi sâu vào “lõi” của các nền tảng nội địa, hoàn thiện tích hợp sâu với Huawei Ascend, Morus Thread, Cambrian, Kunlun Chip, Muxi, Suiyuan, Hygon và các nền tảng chủ đạo khác.

Thông qua tối ưu hóa chi tiết các phép toán nền, GLM-5 có thể vận hành tốt trên các cụm chip nội địa với “tốc độ cao, độ trễ thấp”.

Điều này có nghĩa là, chúng ta không chỉ có mô hình đỉnh cao, mà còn không bị “kẻ thù” phong tỏa.

Kết luận

Mùa xuân 2026, các mô hình lập trình lớn cuối cùng đã thoát khỏi giai đoạn non trẻ.

Karpathy gọi là “Agentic Engineering”, về bản chất là đưa ra một “yêu cầu phỏng vấn” khắt khe hơn với AI:

  • Trước đây (Vibe Coding): chỉ cần biết viết HTML đẹp, là được tuyển dụng.
  • Nay (Agentic Coding): cần hiểu Linux kernel, biết cách gọi liên kết giữa 500 microservice, biết cách tái cấu trúc code mà không gây sập hệ thống, còn phải tự lập kế hoạch nhiệm vụ, tự sửa lỗi.

GLM-5 chưa hoàn hảo.

Nhưng trong việc “xây dựng hệ thống phức tạp” — nhiệm vụ cốt lõi — nó là mô hình duy nhất trong cộng đồng mã nguồn mở có thể bắt kịp làn sóng “Agentic” này.

Vibe Coding đã kết thúc rồi.

Đừng hỏi AI “có thể giúp tôi viết một trang web không”. Đó là chuyện của năm 2025 rồi.

Bây giờ, hãy thử hỏi nó: “Có thể giúp tôi tái cấu trúc module cốt lõi của hệ thống xử lý cao đồng bộ này không?”

GLM-5, Ready to Build!

Món quà bí mật

GLM-5 đã được đưa vào gói Max dành cho người dùng, Pro sẽ sớm hỗ trợ trong vòng 5 ngày tới!

Và mới đây, Zhiyu cũng thông báo tăng giá, Token năm nay chắc chắn sẽ tăng giá!

Nguồn bài viết: Xin Zhiyuan

Lời cảnh báo rủi ro và điều khoản miễn trừ trách nhiệm

Thị trường có rủi ro, đầu tư cần thận trọng. Bài viết này không phải là khuyến nghị đầu tư cá nhân, cũng chưa xem xét các mục tiêu, tình hình tài chính hoặc nhu cầu đặc thù của từng người dùng. Người dùng cần tự cân nhắc xem các ý kiến, quan điểm hoặc kết luận trong bài phù hợp với hoàn cảnh của mình hay không. Đầu tư theo đó, chịu trách nhiệm trước pháp luật.

Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
  • Phần thưởng
  • Bình luận
  • Đăng lại
  • Retweed
Bình luận
Thêm một bình luận
Thêm một bình luận
Không có bình luận
  • Ghim