Cơ bản
Giao ngay
Giao dịch tiền điện tử một cách tự do
Giao dịch ký quỹ
Tăng lợi nhuận của bạn với đòn bẩy
Chuyển đổi và Đầu tư định kỳ
0 Fees
Giao dịch bất kể khối lượng không mất phí không trượt giá
ETF
Sản phẩm ETF có thuộc tính đòn bẩy giao dịch giao ngay không cần vay không cháy tải khoản
Giao dịch trước giờ mở cửa
Giao dịch token mới trước niêm yết
Futures
Truy cập hàng trăm hợp đồng vĩnh cửu
TradFi
Vàng
Một nền tảng cho tài sản truyền thống
Quyền chọn
Hot
Giao dịch với các quyền chọn kiểu Châu Âu
Tài khoản hợp nhất
Tối đa hóa hiệu quả sử dụng vốn của bạn
Giao dịch demo
Giới thiệu về Giao dịch hợp đồng tương lai
Nắm vững kỹ năng giao dịch hợp đồng từ đầu
Sự kiện tương lai
Tham gia sự kiện để nhận phần thưởng
Giao dịch demo
Sử dụng tiền ảo để trải nghiệm giao dịch không rủi ro
Launch
CandyDrop
Sưu tập kẹo để kiếm airdrop
Launchpool
Thế chấp nhanh, kiếm token mới tiềm năng
HODLer Airdrop
Nắm giữ GT và nhận được airdrop lớn miễn phí
Launchpad
Đăng ký sớm dự án token lớn tiếp theo
Điểm Alpha
Giao dịch trên chuỗi và nhận airdrop
Điểm Futures
Kiếm điểm futures và nhận phần thưởng airdrop
Đầu tư
Simple Earn
Kiếm lãi từ các token nhàn rỗi
Đầu tư tự động
Đầu tư tự động một cách thường xuyên.
Sản phẩm tiền kép
Kiếm lợi nhuận từ biến động thị trường
Soft Staking
Kiếm phần thưởng với staking linh hoạt
Vay Crypto
0 Fees
Thế chấp một loại tiền điện tử để vay một loại khác
Trung tâm cho vay
Trung tâm cho vay một cửa
Giá cổ phiếu tăng vọt 32%, GLM-5 đứng đầu toàn cầu về mã nguồn mở, quay liền mạch trong 25 phút để tạo ra hệ thống hoàn chỉnh
Vào đêm ngày 7 tháng 2, một mô hình bí ẩn mang mã “Pony Alpha” đã âm thầm ra mắt.
Ngay sau đó, cộng đồng mạng quốc tế bùng nổ.
Chỉ cần đưa vào một đoạn “mã rác” đã sửa cả ngày chưa xong, nó đã tự tay tái cấu trúc lại kiến trúc; nhập một đoạn gợi ý đơn giản, nó có thể sinh ra một Web App hoàn chỉnh gồm 35 radio, UI mượt mà.
Khả năng kỹ thuật cực kỳ đỉnh cao này đã trực tiếp chứng minh lời khẳng định của Andrej Karpathy vài ngày trước:
Ngay sau đó, Opus 4.6 và GPT-5.3-Codex cùng lúc đêm khuya hôm sau “va chạm” ra mắt, toàn bộ chỉ bàn về “nhiệm vụ dài hạn, hệ thống kỹ thuật”.
Trong khi mọi người nghĩ đây lại là màn trình diễn độc diễn của các ông lớn đóng kín, thì bí mật của Pony Alpha đã được hé lộ—
Nó chính là GLM-5.
Mô hình mã nguồn mở đầu tiên trên thế giới đứng trên cùng một sân chơi này, đối đầu trực diện với các ông lớn Silicon Valley về khả năng hệ thống.
Sau khi bí mật được tiết lộ, giá cổ phiếu Zhiyu lập tức tăng vọt 32%!
Vị trí số một toàn cầu về mã nguồn mở! “Thời khắc Opus” của mô hình nội địa
Sau khi thực sự trải nghiệm, chúng tôi chỉ còn một cảm nhận: Quá mạnh mẽ!
Nếu Claude Opus đại diện cho đỉnh cao của mô hình đóng nguồn, thì việc ra mắt GLM-5 không còn nghi ngờ gì nữa, chính thức đánh dấu thời khắc “Opus” của mô hình mã nguồn mở nội địa.
Ngay trong ngày ra mắt, hơn chục trò chơi và công cụ do các nhà phát triển dựa trên GLM-5 “tự tay chế” đã đồng loạt trình diễn và cung cấp trải nghiệm, các ứng dụng này sau đó sẽ lần lượt cập nhật lên các kho ứng dụng lớn.
Điều này có nghĩa là, GLM-5 đang biến “lập trình AI” thành “giao hàng AI”, thực sự chuyển đổi công cụ năng suất thành sản phẩm thương mại một cách liền mạch.
Chẳng hạn như dự án mang tên “Pookie World”.
Là thế giới song song số hóa do GLM-5 điều khiển, qua nhiều lớp khung sinh học-tâm lý, nó trao cho các tự động trí tuệ nhân tạo khả năng kể chuyện chân thực và động lực sống.
Còn có bản sao “Minecraft”, hiệu ứng và lối chơi gần như y hệt.
Chúng tôi cũng dùng Claude Code làm khung, kết nối trực tiếp API của GLM-5 để thực hiện thử nghiệm đa chiều.
Dù là dự án full-stack Next.js hay ứng dụng gốc MacOS/iOS, đều có thể thực hiện toàn bộ quy trình từ phân tích yêu cầu, thiết kế kiến trúc, viết mã, đến debug end-to-end.
Sau nhiều dự án, trong tiềm thức có một cảm giác:
· Thách thức logic phức tạp: “Vũ trụ tri thức vô hạn”
Nếu bạn nghĩ viết một trang web là đơn giản, hãy thử để AI xử lý một dự án “vô hạn dòng” yêu cầu nghiêm ngặt về định dạng JSON, đồng thời liên quan đến render động.
Chẳng hạn như dự án thử nghiệm đầu tiên của chúng tôi — “Vũ trụ tri thức vô hạn”.
Đây là một dự án phân tách front-end/back-end phức tạp điển hình, liên quan đến render động React Flow, thiết kế API Next.js, và yêu cầu xuất JSON cực kỳ nghiêm ngặt.
Về mặt này, hiệu suất của GLM-5 thực sự ấn tượng.
Nó không chỉ hoàn thành toàn bộ cấu trúc thư mục dự án trong một lần, mà còn gây ngạc nhiên với logic debug của nó.
Khi gặp lỗi render, chúng tôi chỉ nói một câu: “Trang vẫn đen, khi khởi tạo không xuất hiện nội dung đầu tiên…”
GLM-5 ngay lập tức xác định là vấn đề về thời điểm tải, và nhanh chóng đưa ra phương án sửa.
Các gợi ý đầy đủ như sau:
· Dự án trung tâm phức tạp hơn, xây trong 11 phút
Tiếp theo, tăng độ khó, yêu cầu nó phát triển một ứng dụng phân tích tâm lý mang tên “Soul Mirror”.
Yêu cầu gồm hai bước:
Bước 1: Thiết kế logic — đóng vai chuyên gia tâm lý Jung, xuất JSON gồm phân tích và tham số hình ảnh.
Bước 2: Thực thi front-end, vẽ SVG động dựa trên tham số.
Trong toàn bộ quá trình, khả năng hiểu của nó thường khiến người ta nghi ngờ có phải đang dùng Opus 4.5.
Nhưng chỉ cần nhìn qua, rõ ràng chính là GLM-5.
· 25 phút một mạch, mã nguồn tự hành thực sự
Để thử nghiệm khả năng của GLM-5 hơn nữa, chúng tôi yêu cầu nó không dùng API, hoàn toàn mô phỏng người dùng thật, để xây dựng một hệ thống giám sát nền tảng X.
Kết quả: 25 phút, một mạch không ngừng.
Có thể thấy, GLM-5 sẽ tự gọi các công cụ Agent trong quá trình chạy, lập kế hoạch nhiệm vụ, phân tích bước, gặp lỗi tự tra tài liệu sửa.
Khả năng duy trì logic liên tục trong thời gian dài như vậy, trước đây các mô hình mã nguồn mở còn không dám nghĩ.
· Vẽ app từ hình ảnh, độ chính xác thực sự đáng nể
Cuối cùng, chúng tôi còn đưa một ảnh chụp màn hình dự án mã nguồn mở của OpenClaw (công cụ thống kê hạn mức AI), trực tiếp gửi cho GLM-5:
Chẳng bao lâu sau, nó đã “tái tạo” ra một sản phẩm tương tự.
Dù dữ liệu là Mock, nhưng bố cục UI, logic tương tác gần như hoàn hảo.
Điều này không chỉ thể hiện khả năng hiểu hình ảnh, mà còn là năng lực chuyển đổi hình ảnh thành mã SwiftUI để triển khai kỹ thuật.
Chuyên gia tự tay chế: 1 ngày hoàn thiện “phiên bản thấp” của Cursor
Để kiểm chứng giới hạn kỹ thuật của GLM-5, một lập trình viên kỳ cựu quyết chơi lớn:
Tương đương làm một phiên bản đơn giản của Cursor.
Giao nhiệm vụ cho GLM-5, nó không vội viết code, mà đưa ra một tài liệu kiến trúc chuyên nghiệp (PLAN.md), cùng các lựa chọn kỹ thuật rất chín chắn:
Chọn kiến trúc Monorepo, chia dự án thành 3 gói chính:
Từ quản lý trạng thái với Zustand, đến thiết kế style với Tailwind, rồi đến giao tiếp IPC phức tạp, GLM-5 như một giám đốc kỹ thuật đã có thâm niên, sắp xếp các lựa chọn rõ ràng, hợp lý.
Chủ dự án ban đầu nghĩ phải mất 3 ngày để thiết lập môi trường, nhưng chỉ trong 1 ngày đã chạy được toàn bộ quy trình từ cài đặt, phát triển logic chính, đến đóng gói Electron.
Mở GLMLIFE ra, bạn khó mà tin đây là sản phẩm do AI “kiến trúc” trong một ngày.
Tại sao nó có thể trở thành “Opus của cộng đồng mã nguồn mở”?
Trên toàn cầu, Claude Opus 4.6 và GPT-5.3-Codex được săn đón vì khả năng “kiến trúc” cực mạnh của chúng.
Tuy nhiên, tất cả đều có một điều kiện tiên quyết chết người: chúng đều đóng nguồn, và rất đắt.
Giờ đây, việc ra mắt GLM-5 chính là một cú đấm mạnh vào thế giới mô hình lớn mã nguồn mở của Trung Quốc, mở ra một cuộc chơi “thay thế” trong kỷ nguyên Agentic.
Nó trực tiếp nhắm vào lĩnh vực các ông lớn không muốn buông tay nhất — khả năng hệ thống cấp cao — và tiến hành một cuộc tấn công “giá rẻ” kiểu thay thế.
Đội ngũ Zhiyu rất rõ, cộng đồng mã nguồn mở không thiếu các mô hình viết Python, thiếu là các mô hình có thể xử lý các công việc nặng, bẩn, lớn.
GLM-5 đã tăng cường đáng kể trọng số về thiết kế kiến trúc hệ thống, thực thi thuật toán phức tạp, và sửa lỗi cứng đầu, đồng thời còn có khả năng tự phản tỉnh rất mạnh.
Khi gặp lỗi biên dịch, nó tự phân tích logs, xác định nguyên nhân, sửa mã, biên dịch lại, cho đến khi hệ thống chạy trơn tru.
Với hiệu năng sánh ngang Opus, cùng các trọng số mã nguồn mở, GLM-5 phần nào đã làm lung lay “vườn hoa” do Anthropic và OpenAI xây dựng.
Vượt mặt SOTA
Sự tiến hóa của GLM-5 chỉ có thể mô tả bằng hai từ: bạo lực.
Là mô hình nền tảng cho các hệ thống phức tạp, quy mô chắc chắn phải tối đa.
Ngoài “lớn” còn phải “tiết kiệm”.
Ai cũng biết, chạy mô hình Agent tốn kém nhất chính là Token.
Để giải quyết vấn đề này, GLM-5 lần đầu tiên tích hợp cơ chế DeepSeek Sparse Attention (chú ý r sparse).
Điều này giúp nó xử lý các đoạn văn dài hơn mà vẫn giữ được “không mất mát” khả năng ghi nhớ, đồng thời giảm đáng kể chi phí triển khai.
Thêm vào đó, còn có công nghệ “độc quyền” — khung học tăng cường bất đồng bộ Slime.
Kết hợp với học tăng cường quy mô lớn, giúp mô hình không còn là “công cụ dùng một lần”, mà trở thành “vận động viên dài hạn” ngày càng thông minh hơn.
Về điểm số, còn rất “ngầu”:
Khả năng lập trình
SWE-bench xác nhận đạt 77.8 điểm, Terminal Bench 2.0 đạt 56.2 điểm, đều đứng đầu mã nguồn mở. Thành tích này vượt cả Gemini 3.0 Pro, gần như “đè bẹp” Claude Opus 4.5.
Khả năng Agent
BrowseComp (tìm kiếm qua mạng), MCP-Atlas (gọi công cụ), τ²-Bench (lập kế hoạch phức tạp), đều đứng đầu bảng mã nguồn mở.
Điều thú vị nhất là Vending Bench 2 (kiểm tra vận hành máy bán hàng tự động).
Trong thử nghiệm này, mô hình phải tự quản lý vận hành một năm các máy bán hàng.
Bạn đoán xem, đến cuối năm, GLM-5 đã kiếm được 4432 USD, gần như sánh ngang Opus 4.5.
Trong bộ đánh giá nội bộ mà các nhà phát triển quan tâm nhất, gồm các nhiệm vụ lập trình front-end, back-end, nhiệm vụ dài hạn, GLM-5 rõ ràng vượt xa thế hệ trước là GLM-4.7 (tăng trung bình hơn 20%).
Cảm nhận thực tế đã gần như chạm tới Opus 4.5.
Dùng AI tạo AI
Dĩ nhiên, tham vọng của GLM-5 không chỉ dừng lại ở mô hình, mà còn muốn tái cấu trúc các công cụ lập trình của chúng ta.
OpenClaw nổi tiếng toàn cầu đã cho thấy tiềm năng AI thao tác máy tính.
Lần này, Zhiyu cũng ra mắt phiên bản AutoGLM của OpenClaw.
Dùng bản gốc, chỉ môi trường cài đặt đã mất nửa ngày, còn bây giờ chỉ cần một cú click để triển khai.
Muốn có một “thực tập sinh kỹ thuật số” 24/7 theo dõi Twitter, tổng hợp tin tức, thậm chí viết script? Chỉ cần nhấn một nút.
Cùng lúc đó, còn có Z Code—
Trong Z Code, bạn chỉ cần đề xuất yêu cầu, mô hình sẽ tự phân tích, chia nhỏ nhiệm vụ, thậm chí gọi nhiều Agent làm việc song song: viết code, chạy lệnh, debug, xem trước, cuối cùng còn giúp bạn commit Git.
Thậm chí, bạn còn có thể điều khiển từ xa qua điện thoại để chỉ đạo Agent trên desktop.
Đáng chú ý, giống như OpenAI dùng Codex tạo ra Codex, Z Code cũng chính là sản phẩm do mô hình GLM tham gia phát triển toàn bộ.
Chiến thắng sức mạnh tính toán nội địa
Sau khi GLM-5 gây sốt toàn cầu, nhu cầu Agent tăng vọt, có một nhóm “anh hùng vô danh” âm thầm gánh vác lượng tính toán khổng lồ.
Để đảm bảo mọi dòng code, mọi kế hoạch Agent đều ổn định, GLM-5 đã đi sâu vào “lõi” của các nền tảng nội địa, hoàn thiện tích hợp sâu với Huawei Ascend, Morus Thread, Cambrian, Kunlun Chip, Muxi, Suiyuan, Hygon và các nền tảng chủ đạo khác.
Thông qua tối ưu hóa chi tiết các phép toán nền, GLM-5 có thể vận hành tốt trên các cụm chip nội địa với “tốc độ cao, độ trễ thấp”.
Điều này có nghĩa là, chúng ta không chỉ có mô hình đỉnh cao, mà còn không bị “kẻ thù” phong tỏa.
Kết luận
Mùa xuân 2026, các mô hình lập trình lớn cuối cùng đã thoát khỏi giai đoạn non trẻ.
Karpathy gọi là “Agentic Engineering”, về bản chất là đưa ra một “yêu cầu phỏng vấn” khắt khe hơn với AI:
GLM-5 chưa hoàn hảo.
Nhưng trong việc “xây dựng hệ thống phức tạp” — nhiệm vụ cốt lõi — nó là mô hình duy nhất trong cộng đồng mã nguồn mở có thể bắt kịp làn sóng “Agentic” này.
Vibe Coding đã kết thúc rồi.
Đừng hỏi AI “có thể giúp tôi viết một trang web không”. Đó là chuyện của năm 2025 rồi.
Bây giờ, hãy thử hỏi nó: “Có thể giúp tôi tái cấu trúc module cốt lõi của hệ thống xử lý cao đồng bộ này không?”
GLM-5, Ready to Build!
Món quà bí mật
GLM-5 đã được đưa vào gói Max dành cho người dùng, Pro sẽ sớm hỗ trợ trong vòng 5 ngày tới!
Và mới đây, Zhiyu cũng thông báo tăng giá, Token năm nay chắc chắn sẽ tăng giá!
Nguồn bài viết: Xin Zhiyuan
Lời cảnh báo rủi ro và điều khoản miễn trừ trách nhiệm
Thị trường có rủi ro, đầu tư cần thận trọng. Bài viết này không phải là khuyến nghị đầu tư cá nhân, cũng chưa xem xét các mục tiêu, tình hình tài chính hoặc nhu cầu đặc thù của từng người dùng. Người dùng cần tự cân nhắc xem các ý kiến, quan điểm hoặc kết luận trong bài phù hợp với hoàn cảnh của mình hay không. Đầu tư theo đó, chịu trách nhiệm trước pháp luật.