Nếu kết quả của AI không thể xác minh, thì về bản chất nó là dịch vụ hộp đen.


Hiện nay nhiều người nói về hạ tầng AI, nhưng đều giả định một tiền đề, đó là kết quả là đáng tin cậy. Thực tế, người dùng không thể xác minh liệu quá trình suy luận có bị sửa đổi hay không, cũng không thể xác nhận đường đi thực thi.
@dgrid_ai đề xuất giải pháp là giới thiệu lớp xác thực, thông qua Proof of Quality, cho phép các nút kiểm tra lẫn nhau kết quả suy luận, một khi xảy ra lỗi, tài sản đặt cọc sẽ bị phạt. Thiết kế này liên kết trực tiếp chi phí sai sót với mô hình kinh tế.
Điều này khác biệt lớn nhất so với SaaS truyền thống là, niềm tin không còn dựa vào thương hiệu mà dựa vào cấu trúc cạnh tranh.
Từ góc độ nhà phát triển, mạng lưới này giống như một lớp AI RPC, gọi mô hình không cần gắn bó với nền tảng cụ thể, mà qua mạng định tuyến đến nút tối ưu để thực thi.
Tất nhiên, cơ chế này có thể hoạt động ổn định quy mô lớn hay không vẫn cần thời gian để kiểm chứng.
Nhưng ít nhất nó giải quyết được một vấn đề thực tế, đó là AI có thể trở thành tính toán đáng tin cậy hay không, chứ không phải là đầu ra hộp đen.
@Galxe @GalxeQuest @easydotfunX @wallchain #Ad #Affiliate @TermMaxFi
Xem bản gốc
post-image
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
  • Phần thưởng
  • Bình luận
  • Đăng lại
  • Retweed
Bình luận
Thêm một bình luận
Thêm một bình luận
Không có bình luận
  • Gate Fun hot

    Xem thêm
  • Vốn hóa:$2.23KNgười nắm giữ:1
    0.00%
  • Vốn hóa:$2.23KNgười nắm giữ:1
    0.00%
  • Vốn hóa:$2.27KNgười nắm giữ:2
    0.07%
  • Vốn hóa:$2.27KNgười nắm giữ:2
    0.07%
  • Vốn hóa:$0.1Người nắm giữ:1
    0.00%
  • Ghim