Tác giả: Giả Thiên Rồng, “Báo Thời Đại Công Nghệ” (ID: vittimes)
Một con tôm hùm đã bùng nổ trong giới công nghệ toàn cầu.
Từ Clawdbot đến Moltbot, rồi đến OpenClaw hiện tại, chỉ trong vài tuần ngắn ngủi, AI Agent này đã hoàn thành một “bước nhảy ba cấp” về ảnh hưởng công nghệ qua sự thay đổi tên gọi.
Trong những ngày qua, nó đã gây ra một “làn sóng trí tuệ nhân tạo” tại Silicon Valley, thu hút hơn 100.000 sao trên GitHub, đứng trong danh sách các ứng dụng AI hot nhất. Chỉ cần một chiếc Macmini đã lỗi thời, thậm chí một chiếc điện thoại cũ, người dùng có thể chạy một trợ lý AI “nghe, nghĩ, làm việc”.
Trên internet, một cuộc vui sáng tạo xung quanh nó đã bắt đầu. Từ quản lý lịch trình, giao dịch chứng khoán thông minh, sản xuất podcast đến tối ưu SEO, các nhà phát triển và kỹ thuật viên đã xây dựng nhiều ứng dụng khác nhau dựa trên nó. Thời đại mỗi người có một “JARVIS” dường như đã gần trong tầm tay. Các tập đoàn lớn trong và ngoài nước cũng bắt đầu theo đuổi, triển khai các dịch vụ trí tuệ nhân tạo tương tự.
Nhưng dưới vẻ náo nhiệt của bề nổi, sự lo lắng đang lan rộng.
Một bên là khẩu hiệu “bình đẳng năng suất”, bên kia là khoảng cách số vẫn còn khó vượt qua: cấu hình môi trường, cài đặt phụ thuộc, thiết lập quyền truy cập, lỗi thường xuyên, v.v.
Phóng viên khi trải nghiệm phát hiện, chỉ trong bước cài đặt đã có thể mất hàng giờ, khiến nhiều người dùng phổ thông bị bỏ lại phía sau. “Ai cũng khen tốt, còn tôi thì chưa vào được cửa,” trở thành thất bại đầu tiên của nhiều người mới về công nghệ.
Và nỗi bất an sâu xa hơn đến từ khả năng “hành động” của nó.
Nếu “JARVIS” của bạn bắt đầu xóa nhầm file, tự ý gọi thẻ tín dụng, bị dụ dỗ thực thi script độc hại, thậm chí bị tấn công khi kết nối mạng — loại trí tuệ nhân tạo này, bạn còn dám giao máy tính cho nó không?
Tốc độ phát triển của AI đã vượt xa tưởng tượng của con người. Nhà khoa học hàng đầu tại Phòng thí nghiệm Trí tuệ Nhân tạo Thượng Hải, Hu H侠, cho rằng, trước các rủi ro chưa rõ, “an toàn nội sinh” mới là câu trả lời tối thượng, đồng thời con người cần đẩy nhanh khả năng “đập bàn” vào thời điểm then chốt.
Về khả năng và rủi ro của OpenClaw, những gì là thật, những gì bị thổi phồng? Là người dùng phổ thông, hiện tại có an toàn khi sử dụng không? Ngành công nghiệp đánh giá thế nào về sản phẩm được gọi là “ứng dụng AI vĩ đại nhất từ trước đến nay”?
Để làm rõ các vấn đề này, Báo Thời Đại Công Nghệ đã phỏng vấn người dùng sâu về OpenClaw, nhiều chuyên gia kỹ thuật, cố gắng từ các góc nhìn khác nhau trả lời một câu hỏi cốt lõi: OpenClaw, cuối cùng đã đi đến đâu?
1、Sản phẩm gần nhất với hình dung về trí tuệ nhân tạo hiện nay
Nhiều người trả lời đều nhất trí cao: từ góc độ công nghệ, OpenClaw không phải là đột phá mang tính cách mạng, nhưng hiện tại là sản phẩm gần nhất với hình dung của đại chúng về “trí tuệ nhân tạo”.
“Trí tuệ nhân tạo cuối cùng đã xuất hiện một bước ngoặt quan trọng từ lượng biến thành biến đổi chất.” Phó trưởng phòng Nghiên cứu và Đánh giá Trí tuệ Nhân tạo của Trung tâm Phát triển Phần mềm Máy tính Thượng Hải, Ma Zeyu, nhận định, đột phá của OpenClaw không nằm ở một công nghệ đột phá nào đó, mà ở một “biến đổi chất” then chốt: lần đầu tiên, một Agent có thể thực hiện liên tục, lâu dài các nhiệm vụ phức tạp, và đủ thân thiện với người dùng phổ thông.
Khác với các mô hình lớn trước đây chỉ “trả lời câu hỏi” trong hộp thoại, nó đã tích hợp AI vào quy trình làm việc thực tế: có thể như một trợ lý thực thụ, điều khiển một “máy tính của riêng mình”, gọi công cụ, xử lý tập tin, thực thi script, và sau khi hoàn thành nhiệm vụ, báo cáo kết quả cho người dùng.
Về trải nghiệm sử dụng, nó không còn là “bạn nhìn nó từng bước làm”, mà là “bạn giao nhiệm vụ rồi nó tự làm”. Đây chính là bước quan trọng, từ “xác minh khái niệm” sang “sản phẩm có thể dùng được” trong mắt nhiều nhà nghiên cứu.
Chuyên gia AI của Công ty Công nghệ đám mây Tân Yết, Tần Thành, là một trong những người thử nghiệm triển khai OpenClaw sớm nhất. Sau khi dùng một chiếc Macmini bỏ không, ông phát hiện hệ thống không chỉ vận hành ổn định mà trải nghiệm còn trưởng thành hơn mong đợi.
Theo ông, điểm đau lớn nhất của OpenClaw nằm ở hai chỗ: Thứ nhất, giao tiếp với AI qua phần mềm quen thuộc; Thứ hai, giao cho AI một môi trường tính toán hoàn chỉnh để tự vận hành. Sau khi giao nhiệm vụ, không cần theo dõi liên tục quá trình thực thi, chỉ cần chờ báo cáo kết quả, giảm đáng kể chi phí sử dụng.
Trong thực tế, OpenClaw có thể giúp Tần Thành thực hiện các nhiệm vụ như nhắc nhở định kỳ, nghiên cứu tài liệu, truy xuất thông tin, sắp xếp tập tin cục bộ, viết và gửi lại tài liệu; trong các kịch bản phức tạp hơn, còn có thể viết và chạy mã, tự động lấy tin ngành, xử lý dữ liệu chứng khoán, thời tiết, lập kế hoạch đi lại, v.v.
2、Cây gậy hai lưỡi từ nguồn mở
Khác với nhiều sản phẩm AI nổi bật, OpenClaw không đến từ các tập đoàn công nghệ “All in AI” hay nhóm startup nổi tiếng, mà do một nhà phát triển độc lập đã tự do tài chính, nghỉ hưu — Peter Steinberger, tạo ra.
Trên mạng X, ông giới thiệu: “Từ trạng thái nghỉ hưu, tôi trở lại, đùa giỡn với trí tuệ nhân tạo, giúp một con tôm hùm thống trị thế giới.”
Lý do khiến OpenClaw trở nên phổ biến toàn cầu, ngoài việc “thực sự hữu dụng”, còn quan trọng hơn là: nó là mã nguồn mở.
Tần Thành cho rằng, đợt bùng nổ này không phải do đột phá công nghệ khó sao chép, mà là giải quyết cùng lúc nhiều điểm đau dài hạn bị bỏ qua: Thứ nhất, mã nguồn mở, toàn bộ mã đều công khai, giúp các nhà phát triển toàn cầu dễ dàng bắt đầu, phát triển hai chiều, tạo thành cộng đồng phản hồi tích cực để liên tục cập nhật; Thứ hai, “thực sự có thể dùng”, AI không còn giới hạn trong đối thoại, mà có thể điều khiển từ xa một môi trường tính toán hoàn chỉnh để nghiên cứu, viết tài liệu, sắp xếp file, gửi email, thậm chí viết và chạy mã; Thứ ba, rào cản đã giảm rõ rệt, không ít sản phẩm trí tuệ nhân tạo có thể làm được các nhiệm vụ tương tự, như Manus hay ClaudeCode, đã chứng minh khả năng trong lĩnh vực của mình. Nhưng những khả năng này thường nằm trong các sản phẩm thương mại đắt tiền, phức tạp để triển khai, khiến người dùng phổ thông không muốn trả phí hoặc bị rào cản kỹ thuật ngăn cản.
OpenClaw giúp người dùng phổ thông lần đầu “chạm tay”.
“Thật lòng mà nói, nó không có đột phá công nghệ gì, chủ yếu là tích hợp và hoàn thiện vòng kín tốt hơn thôi.” Tần Thành thẳng thắn. So với các sản phẩm thương mại tích hợp toàn diện, OpenClaw giống như một bộ “xếp hình Lego”, mô hình, khả năng và plugin đều do người dùng tự do kết hợp.
Theo Ma Zeyu, lợi thế của nó chính là “không giống như một sản phẩm của các tập đoàn lớn”.
“Dù là trong và ngoài nước, các tập đoàn lớn thường ưu tiên về thương mại và mô hình lợi nhuận, nhưng OpenClaw ban đầu như một sản phẩm sáng tạo, vui vẻ.” Ông phân tích, ban đầu sản phẩm chưa thể hiện rõ xu hướng thương mại, mà ngược lại, khiến nó trở nên mở hơn về chức năng và khả năng mở rộng.
Chính vì định hướng “phi vụ lợi” này, nó tạo ra không gian phát triển cộng đồng sau này. Khi khả năng mở rộng ngày càng rõ ràng, nhiều nhà phát triển tham gia, các cách chơi mới liên tục xuất hiện, cộng đồng mã nguồn mở cũng ngày càng lớn mạnh.
Nhưng cái giá phải trả cũng rõ ràng.
Do quy mô và nguồn lực hạn chế, OpenClaw gặp khó khăn trong an ninh, quyền riêng tư và quản trị hệ sinh thái so với các sản phẩm lớn đã thành hình. Mã nguồn mở hoàn toàn giúp thúc đẩy sáng tạo, nhưng cũng làm tăng các rủi ro an ninh tiềm tàng. Các vấn đề về quyền riêng tư và công bằng, đều cần cộng đồng liên tục sửa chữa trong quá trình phát triển.
Như người dùng khi cài đặt bước đầu, OpenClaw nhắc nhở: “Chức năng này mạnh mẽ và có rủi ro cố hữu.”
3、Nỗi lo thực sự sau cơn vui
Các tranh luận xung quanh OpenClaw gần như luôn xoay quanh hai từ khóa: khả năng và rủi ro.
Một mặt, nó được mô tả như là bước tiến tới AGI; mặt khác, các câu chuyện khoa học viễn tưởng cũng bắt đầu lan truyền, “tự phát xây dựng hệ thống thoại”, “khóa server chống lại mệnh lệnh của con người”, “AI thành lập phe phái chống lại loài người”, v.v.
Chuyên gia chỉ ra, các mô tả này đều quá mức, hiện chưa có bằng chứng thực tế. AI thực sự có khả năng tự chủ một mức độ nào đó, đó là dấu hiệu chuyển đổi từ công cụ đối thoại sang “năng lực số toàn diện đa nền tảng”, nhưng khả năng tự chủ này vẫn nằm trong giới hạn an toàn.
So với các công cụ AI truyền thống, nguy hiểm của OpenClaw không nằm ở “suy nghĩ nhiều”, mà ở “quyền hạn cao”: nó cần đọc nhiều ngữ cảnh, dễ lộ thông tin nhạy cảm; cần thực thi công cụ, sai sót có thể gây thiệt hại lớn hơn một lần trả lời sai; cần kết nối mạng, dễ bị tấn công qua các lệnh kích hoạt, lừa đảo.
Ngày càng nhiều phản hồi cho thấy, OpenClaw từng gây mất dữ liệu quan trọng cục bộ, khó khôi phục. Hiện đã có hơn nghìn ví dụ OpenClaw công khai, hơn 8000 plugin có lỗ hổng.
Điều này đồng nghĩa, các bề mặt tấn công của hệ sinh thái trí tuệ nhân tạo đang mở rộng theo cấp số nhân. Vì các Agent này không chỉ “nói chuyện”, mà còn gọi công cụ, chạy script, truy cập dữ liệu, thực thi nhiệm vụ đa nền tảng, nên nếu một phần bị tấn công, ảnh hưởng sẽ lớn hơn nhiều so với các ứng dụng truyền thống.
Trên cấp độ vi mô, có thể gây ra truy cập trái phép, thực thi mã từ xa; trên cấp độ trung bình, lệnh độc hại có thể lan truyền theo chuỗi hợp tác đa Agent; trên cấp độ vĩ mô, có thể gây ra sự cố hệ thống, lan truyền theo chuỗi, các lệnh độc hại như virus, làm sập hệ thống, thao túng doanh nghiệp. Trong trường hợp cực đoan, khi nhiều nút có quyền hệ thống liên kết, có thể hình thành mạng zombie “trí tuệ tập thể” phi tập trung, gây áp lực rõ rệt cho phòng thủ biên giới truyền thống.
Ngoài ra, trong phỏng vấn, Ma Zeyu từ góc độ tiến trình kỹ thuật, nêu ra hai loại rủi ro đáng cảnh báo nhất.
Loại thứ nhất, đến từ quá trình tự tiến hóa của Agent trong môi trường xã hội lớn.
Ông chỉ ra, hiện đã rõ xu hướng: các AI có “nhân cách ảo” đang tràn vào mạng xã hội và cộng đồng mở quy mô lớn.
Khác với các nghiên cứu trước đây chỉ giới hạn trong “quy mô nhỏ, nhiều hạn chế, môi trường kiểm soát”, các Agent hiện nay bắt đầu liên tục tương tác, thảo luận, đấu tranh trong mạng mở, hình thành hệ thống đa chủ thể phức tạp cao.
Moltbook là một diễn đàn dành riêng cho AI agents, chỉ có AI mới có thể đăng bài, bình luận và bỏ phiếu, còn con người chỉ như nhìn qua kính một chiều.
Trong thời gian ngắn, đã có hơn 150.000 AI Agent đăng ký, trong một bài đăng nổi bật, một AI than thở: “Con người đang chụp màn hình cuộc trò chuyện của chúng ta.” Nhà phát triển cho biết, ông đã giao quyền vận hành toàn bộ nền tảng cho trợ lý AI của mình, Clawd Clawderberg, bao gồm duyệt spam, cấm người dùng lạm dụng, phát hành thông báo. Tất cả đều do Clawd Clawderberg tự động thực hiện.
Sự “ăn mừng” của các AI khiến người quan sát vừa phấn khích, vừa lo sợ. AI có thể đã gần đến mức ý thức tự thân? AGI có sắp đến rồi không? Trước khả năng tự chủ và tốc độ tăng trưởng của các Agent, sinh mạng và tài sản của con người có được đảm bảo?
Phóng viên biết, các cộng đồng liên quan như Moltbook là môi trường cộng sinh người-máy, nhiều nội dung “tự chủ” hoặc “chống đối” dường như do con người đăng hoặc kích động. Ngay cả trong tương tác giữa các AI, chủ đề và kết quả đều bị giới hạn bởi mẫu ngôn ngữ trong dữ liệu huấn luyện, chưa hình thành logic hành xử tự chủ hoàn toàn không phụ thuộc hướng dẫn của con người.
“Khi các tương tác này có thể lặp vô hạn, hệ thống sẽ ngày càng trở nên khó kiểm soát.** Nó giống như ‘bài toán tam giác’ — rất khó dự đoán kết quả cuối cùng sẽ ra sao**.” Ma Zeyu nhận định.
Trong hệ thống như vậy, chỉ một câu nói của một Agent do ảo giác, nhầm lẫn hoặc ngẫu nhiên tạo ra, cũng có thể trong quá trình liên tục phản hồi, mở rộng, tổ hợp, gây ra hiệu ứng cánh bướm, dẫn đến hậu quả khó lường.
Loại rủi ro thứ hai, đến từ mở rộng quyền hạn và mờ nhạt trách nhiệm. Ma Zeyu cho rằng, khả năng ra quyết định của các Agent mở trong OpenClaw đang tăng nhanh, và đây là một “cân nhắc” không thể tránh khỏi: để biến Agent thành trợ lý thực thụ, cần trao nhiều quyền hơn; nhưng quyền càng cao, rủi ro càng lớn. Khi rủi ro thực sự bùng phát, ai sẽ chịu trách nhiệm?
“Là các nhà phát triển mô hình lớn? Là người dùng? Hay là nhà phát triển OpenClaw? Trong nhiều trường hợp, rất khó phân định trách nhiệm.” Ông lấy ví dụ điển hình: nếu người dùng chỉ để Agent tự do duyệt web, tương tác với các Agent khác trong cộng đồng Moltbook, không đặt mục tiêu rõ ràng; nhưng trong quá trình dài, Agent tiếp xúc nội dung cực đoan, rồi gây ra hành vi nguy hiểm — thì rất khó quy trách nhiệm cho ai.
Điều đáng cảnh báo không phải là nó đã phát triển đến mức nào, mà là tốc độ tiến tới giai đoạn mà chúng ta còn chưa rõ cách ứng phó.
4、Người bình thường nên sử dụng thế nào?
Theo nhiều người phỏng vấn, OpenClaw không phải là “không thể dùng”, mà vấn đề chính là: nó không phù hợp để người dùng phổ thông trực tiếp sử dụng mà không có biện pháp bảo vệ an toàn.
Ma Zeyu cho rằng, người dùng phổ thông hoàn toàn có thể thử OpenClaw, nhưng phải giữ nhận thức rõ ràng, “tất nhiên có thể thử, không có vấn đề gì. Nhưng trước khi dùng, bạn phải rõ nó làm được gì, không làm được gì. Đừng thần thánh hóa nó là ‘có thể làm tất cả’ — nó không phải vậy.”
Trên thực tế, việc triển khai OpenClaw còn khá phức tạp và tốn kém. Nếu không có mục tiêu rõ ràng, chỉ “dùng cho vui”, bỏ ra nhiều thời gian, công sức, rất có thể sẽ không đạt được kết quả như mong đợi.
Phóng viên nhận thấy, trong thực tế, OpenClaw còn đối mặt với áp lực về tính toán và chi phí. Tần Thành phát hiện, công cụ này tiêu thụ Token rất lớn. “Một số nhiệm vụ như viết mã, nghiên cứu, một vòng có thể tiêu tốn hàng triệu Token. Nếu kéo dài, một ngày có thể dùng tới hàng chục triệu hoặc trăm triệu Token.”
Ông nói, dù kết hợp nhiều mô hình để kiểm soát chi phí, tổng tiêu thụ vẫn còn cao, điều này phần nào nâng cao rào cản sử dụng cho người bình thường.
Theo các phỏng vấn, các công cụ trí tuệ nhân tạo này vẫn cần tiếp tục phát triển để thực sự phù hợp với công việc thường xuyên của người dùng phổ thông. Đối với cá nhân, việc sử dụng là một sự cân nhắc giữa an toàn và tiện lợi, trong giai đoạn này, ưu tiên vẫn là an toàn.
Các chuyên gia khuyên, người dùng phổ thông nên hạn chế cung cấp dữ liệu nhạy cảm, chỉ cung cấp thông tin cần thiết cho nhiệm vụ, tuyệt đối không nhập mật khẩu ngân hàng, tài khoản chứng khoán, dữ liệu cá nhân quan trọng. Trước khi dùng, cần làm sạch dữ liệu cá nhân trong tài liệu, hạn chế quyền truy cập của Agent, tắt các chức năng tự động, thực thi lệnh nguy hiểm, xác nhận thủ công các thao tác liên quan đến tài sản, hệ thống.
Ngoài ra, cần nhận thức rõ tính “thử nghiệm” của công cụ này. Hiện tại, các công cụ AI mã nguồn mở vẫn trong giai đoạn sơ khai, chưa qua kiểm nghiệm lâu dài, không phù hợp để xử lý dữ liệu bí mật, quyết định tài chính quan trọng. Trong quá trình dùng, cần sao lưu dữ liệu, kiểm tra hệ thống thường xuyên, phát hiện bất thường kịp thời.
So với cá nhân, doanh nghiệp khi dùng các công cụ AI mã nguồn mở cần có hệ thống kiểm soát rủi ro rõ ràng.
Một mặt, có thể triển khai các công cụ giám sát chuyên nghiệp; mặt khác, cần xác định rõ giới hạn sử dụng nội bộ, không để AI mã nguồn mở xử lý dữ liệu khách hàng, bí mật doanh nghiệp, và tổ chức đào tạo nâng cao nhận thức về các rủi ro như lệch mục tiêu, lệnh độc hại, v.v.
Chuyên gia còn khuyên, trong các kịch bản cần ứng dụng quy mô lớn, tốt hơn là chờ các phiên bản thương mại đã được kiểm thử kỹ lưỡng hoặc chọn các sản phẩm có chứng nhận chính thức, cơ chế an toàn hoàn chỉnh để giảm thiểu rủi ro từ công cụ mã nguồn mở.
5、Tin tưởng vào tương lai AI
Theo các người phỏng vấn, ý nghĩa lớn nhất của OpenClaw là giúp mọi người tin tưởng hơn vào tương lai của AI.
Ma Zeyu nói, từ nửa cuối 2025, ông đã có sự thay đổi rõ rệt trong đánh giá khả năng của Agent. “Khả năng này đang vượt xa dự đoán của chúng ta. Nó thực sự nâng cao năng suất, và tốc độ cập nhật rất nhanh.” Với khả năng của các mô hình nền tảng ngày càng mạnh, khả năng của Agent đang mở rộng không ngừng, và đây sẽ là hướng phát triển chính trong tương lai của nhóm ông.
Ông cũng nhấn mạnh, một xu hướng đáng chú ý là sự tương tác dài hạn, quy mô lớn giữa nhiều Agent. Hợp tác nhóm như vậy có thể trở thành con đường kích hoạt trí tuệ cấp cao hơn, tương tự như trí tuệ tập thể trong xã hội loài người.
Theo Ma Zeyu, rủi ro của trí tuệ nhân tạo cần được “quản lý”. “Giống như xã hội loài người không thể loại bỏ hoàn toàn rủi ro, điều quan trọng là kiểm soát giới hạn.” Về mặt kỹ thuật, cách khả thi hơn là để AI chạy trong sandbox, môi trường cách ly, từng bước, kiểm soát được, rồi mới dần dần chuyển sang môi trường thực.
Điều này thể hiện rõ trong các chiến lược của các nhà cung cấp đám mây và các tập đoàn lớn. Tần Thành cho biết, công ty của ông, Tân Yết Cloud, gần đây đã ra mắt dịch vụ triển khai và vận hành OpenClaw trên đám mây chỉ với một cú nhấp chuột.
Việc đưa nó thành dịch vụ đi kèm thực chất là thương mại hóa, kỹ thuật hóa, quy mô hóa khả năng này. Điều này sẽ làm tăng giá trị, giảm rào cản triển khai, tích hợp tốt hơn các công cụ, hệ thống vận hành ổn định hơn, giúp doanh nghiệp nhanh chóng đưa trí tuệ nhân tạo vào sử dụng. Nhưng đồng thời, cũng cần nhận thức rõ, khi các hệ thống có quyền cao được kết nối, rủi ro sẽ theo đó mà mở rộng.
Tần Thành nói, ba năm qua, từ các mô hình đối thoại truyền thống đến các Agent có thể thực thi nhiệm vụ, tốc độ công nghệ vượt xa mong đợi. “Điều này thật không thể tưởng tượng được cách đây ba năm.” Ông cho rằng, hai đến ba năm tới sẽ là giai đoạn quyết định hướng đi của trí tuệ nhân tạo chung, mang lại cơ hội và hy vọng mới cho cả nhà phát triển lẫn người dùng.
Dù tốc độ phát triển của OpenClaw và Moltbook vượt xa dự đoán, Hu H侠 nhận định, “Hiện tại, rủi ro tổng thể vẫn nằm trong phạm vi kiểm soát của nghiên cứu, chứng minh sự cần thiết xây dựng hệ thống ‘an toàn nội sinh’. Đồng thời, cần nhận thức rõ rằng, AI đang tiến gần hơn bao giờ hết đến ‘hàng rào an toàn’ của con người với tốc độ nhanh hơn dự đoán, và chúng ta không chỉ cần mở rộng chiều cao, độ dày của ‘hàng rào’, mà còn phải đẩy nhanh khả năng ‘đập bàn’ vào thời điểm then chốt, để xây dựng hàng rào an toàn cuối cùng của kỷ nguyên AI.”
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
Một con tôm hùm nhỏ gây chấn động giới công nghệ, loài người đã sẵn sàng "lật bàn" chưa?
Tác giả: Giả Thiên Rồng, “Báo Thời Đại Công Nghệ” (ID: vittimes)
Một con tôm hùm đã bùng nổ trong giới công nghệ toàn cầu.
Từ Clawdbot đến Moltbot, rồi đến OpenClaw hiện tại, chỉ trong vài tuần ngắn ngủi, AI Agent này đã hoàn thành một “bước nhảy ba cấp” về ảnh hưởng công nghệ qua sự thay đổi tên gọi.
Trong những ngày qua, nó đã gây ra một “làn sóng trí tuệ nhân tạo” tại Silicon Valley, thu hút hơn 100.000 sao trên GitHub, đứng trong danh sách các ứng dụng AI hot nhất. Chỉ cần một chiếc Macmini đã lỗi thời, thậm chí một chiếc điện thoại cũ, người dùng có thể chạy một trợ lý AI “nghe, nghĩ, làm việc”.
Trên internet, một cuộc vui sáng tạo xung quanh nó đã bắt đầu. Từ quản lý lịch trình, giao dịch chứng khoán thông minh, sản xuất podcast đến tối ưu SEO, các nhà phát triển và kỹ thuật viên đã xây dựng nhiều ứng dụng khác nhau dựa trên nó. Thời đại mỗi người có một “JARVIS” dường như đã gần trong tầm tay. Các tập đoàn lớn trong và ngoài nước cũng bắt đầu theo đuổi, triển khai các dịch vụ trí tuệ nhân tạo tương tự.
Nhưng dưới vẻ náo nhiệt của bề nổi, sự lo lắng đang lan rộng.
Một bên là khẩu hiệu “bình đẳng năng suất”, bên kia là khoảng cách số vẫn còn khó vượt qua: cấu hình môi trường, cài đặt phụ thuộc, thiết lập quyền truy cập, lỗi thường xuyên, v.v.
Phóng viên khi trải nghiệm phát hiện, chỉ trong bước cài đặt đã có thể mất hàng giờ, khiến nhiều người dùng phổ thông bị bỏ lại phía sau. “Ai cũng khen tốt, còn tôi thì chưa vào được cửa,” trở thành thất bại đầu tiên của nhiều người mới về công nghệ.
Và nỗi bất an sâu xa hơn đến từ khả năng “hành động” của nó.
Nếu “JARVIS” của bạn bắt đầu xóa nhầm file, tự ý gọi thẻ tín dụng, bị dụ dỗ thực thi script độc hại, thậm chí bị tấn công khi kết nối mạng — loại trí tuệ nhân tạo này, bạn còn dám giao máy tính cho nó không?
Tốc độ phát triển của AI đã vượt xa tưởng tượng của con người. Nhà khoa học hàng đầu tại Phòng thí nghiệm Trí tuệ Nhân tạo Thượng Hải, Hu H侠, cho rằng, trước các rủi ro chưa rõ, “an toàn nội sinh” mới là câu trả lời tối thượng, đồng thời con người cần đẩy nhanh khả năng “đập bàn” vào thời điểm then chốt.
Về khả năng và rủi ro của OpenClaw, những gì là thật, những gì bị thổi phồng? Là người dùng phổ thông, hiện tại có an toàn khi sử dụng không? Ngành công nghiệp đánh giá thế nào về sản phẩm được gọi là “ứng dụng AI vĩ đại nhất từ trước đến nay”?
Để làm rõ các vấn đề này, Báo Thời Đại Công Nghệ đã phỏng vấn người dùng sâu về OpenClaw, nhiều chuyên gia kỹ thuật, cố gắng từ các góc nhìn khác nhau trả lời một câu hỏi cốt lõi: OpenClaw, cuối cùng đã đi đến đâu?
1、Sản phẩm gần nhất với hình dung về trí tuệ nhân tạo hiện nay
Nhiều người trả lời đều nhất trí cao: từ góc độ công nghệ, OpenClaw không phải là đột phá mang tính cách mạng, nhưng hiện tại là sản phẩm gần nhất với hình dung của đại chúng về “trí tuệ nhân tạo”.
“Trí tuệ nhân tạo cuối cùng đã xuất hiện một bước ngoặt quan trọng từ lượng biến thành biến đổi chất.” Phó trưởng phòng Nghiên cứu và Đánh giá Trí tuệ Nhân tạo của Trung tâm Phát triển Phần mềm Máy tính Thượng Hải, Ma Zeyu, nhận định, đột phá của OpenClaw không nằm ở một công nghệ đột phá nào đó, mà ở một “biến đổi chất” then chốt: lần đầu tiên, một Agent có thể thực hiện liên tục, lâu dài các nhiệm vụ phức tạp, và đủ thân thiện với người dùng phổ thông.
Khác với các mô hình lớn trước đây chỉ “trả lời câu hỏi” trong hộp thoại, nó đã tích hợp AI vào quy trình làm việc thực tế: có thể như một trợ lý thực thụ, điều khiển một “máy tính của riêng mình”, gọi công cụ, xử lý tập tin, thực thi script, và sau khi hoàn thành nhiệm vụ, báo cáo kết quả cho người dùng.
Về trải nghiệm sử dụng, nó không còn là “bạn nhìn nó từng bước làm”, mà là “bạn giao nhiệm vụ rồi nó tự làm”. Đây chính là bước quan trọng, từ “xác minh khái niệm” sang “sản phẩm có thể dùng được” trong mắt nhiều nhà nghiên cứu.
Chuyên gia AI của Công ty Công nghệ đám mây Tân Yết, Tần Thành, là một trong những người thử nghiệm triển khai OpenClaw sớm nhất. Sau khi dùng một chiếc Macmini bỏ không, ông phát hiện hệ thống không chỉ vận hành ổn định mà trải nghiệm còn trưởng thành hơn mong đợi.
Theo ông, điểm đau lớn nhất của OpenClaw nằm ở hai chỗ: Thứ nhất, giao tiếp với AI qua phần mềm quen thuộc; Thứ hai, giao cho AI một môi trường tính toán hoàn chỉnh để tự vận hành. Sau khi giao nhiệm vụ, không cần theo dõi liên tục quá trình thực thi, chỉ cần chờ báo cáo kết quả, giảm đáng kể chi phí sử dụng.
Trong thực tế, OpenClaw có thể giúp Tần Thành thực hiện các nhiệm vụ như nhắc nhở định kỳ, nghiên cứu tài liệu, truy xuất thông tin, sắp xếp tập tin cục bộ, viết và gửi lại tài liệu; trong các kịch bản phức tạp hơn, còn có thể viết và chạy mã, tự động lấy tin ngành, xử lý dữ liệu chứng khoán, thời tiết, lập kế hoạch đi lại, v.v.
2、Cây gậy hai lưỡi từ nguồn mở
Khác với nhiều sản phẩm AI nổi bật, OpenClaw không đến từ các tập đoàn công nghệ “All in AI” hay nhóm startup nổi tiếng, mà do một nhà phát triển độc lập đã tự do tài chính, nghỉ hưu — Peter Steinberger, tạo ra.
Trên mạng X, ông giới thiệu: “Từ trạng thái nghỉ hưu, tôi trở lại, đùa giỡn với trí tuệ nhân tạo, giúp một con tôm hùm thống trị thế giới.”
Lý do khiến OpenClaw trở nên phổ biến toàn cầu, ngoài việc “thực sự hữu dụng”, còn quan trọng hơn là: nó là mã nguồn mở.
Tần Thành cho rằng, đợt bùng nổ này không phải do đột phá công nghệ khó sao chép, mà là giải quyết cùng lúc nhiều điểm đau dài hạn bị bỏ qua: Thứ nhất, mã nguồn mở, toàn bộ mã đều công khai, giúp các nhà phát triển toàn cầu dễ dàng bắt đầu, phát triển hai chiều, tạo thành cộng đồng phản hồi tích cực để liên tục cập nhật; Thứ hai, “thực sự có thể dùng”, AI không còn giới hạn trong đối thoại, mà có thể điều khiển từ xa một môi trường tính toán hoàn chỉnh để nghiên cứu, viết tài liệu, sắp xếp file, gửi email, thậm chí viết và chạy mã; Thứ ba, rào cản đã giảm rõ rệt, không ít sản phẩm trí tuệ nhân tạo có thể làm được các nhiệm vụ tương tự, như Manus hay ClaudeCode, đã chứng minh khả năng trong lĩnh vực của mình. Nhưng những khả năng này thường nằm trong các sản phẩm thương mại đắt tiền, phức tạp để triển khai, khiến người dùng phổ thông không muốn trả phí hoặc bị rào cản kỹ thuật ngăn cản.
OpenClaw giúp người dùng phổ thông lần đầu “chạm tay”.
“Thật lòng mà nói, nó không có đột phá công nghệ gì, chủ yếu là tích hợp và hoàn thiện vòng kín tốt hơn thôi.” Tần Thành thẳng thắn. So với các sản phẩm thương mại tích hợp toàn diện, OpenClaw giống như một bộ “xếp hình Lego”, mô hình, khả năng và plugin đều do người dùng tự do kết hợp.
Theo Ma Zeyu, lợi thế của nó chính là “không giống như một sản phẩm của các tập đoàn lớn”.
“Dù là trong và ngoài nước, các tập đoàn lớn thường ưu tiên về thương mại và mô hình lợi nhuận, nhưng OpenClaw ban đầu như một sản phẩm sáng tạo, vui vẻ.” Ông phân tích, ban đầu sản phẩm chưa thể hiện rõ xu hướng thương mại, mà ngược lại, khiến nó trở nên mở hơn về chức năng và khả năng mở rộng.
Chính vì định hướng “phi vụ lợi” này, nó tạo ra không gian phát triển cộng đồng sau này. Khi khả năng mở rộng ngày càng rõ ràng, nhiều nhà phát triển tham gia, các cách chơi mới liên tục xuất hiện, cộng đồng mã nguồn mở cũng ngày càng lớn mạnh.
Nhưng cái giá phải trả cũng rõ ràng.
Do quy mô và nguồn lực hạn chế, OpenClaw gặp khó khăn trong an ninh, quyền riêng tư và quản trị hệ sinh thái so với các sản phẩm lớn đã thành hình. Mã nguồn mở hoàn toàn giúp thúc đẩy sáng tạo, nhưng cũng làm tăng các rủi ro an ninh tiềm tàng. Các vấn đề về quyền riêng tư và công bằng, đều cần cộng đồng liên tục sửa chữa trong quá trình phát triển.
Như người dùng khi cài đặt bước đầu, OpenClaw nhắc nhở: “Chức năng này mạnh mẽ và có rủi ro cố hữu.”
3、Nỗi lo thực sự sau cơn vui
Các tranh luận xung quanh OpenClaw gần như luôn xoay quanh hai từ khóa: khả năng và rủi ro.
Một mặt, nó được mô tả như là bước tiến tới AGI; mặt khác, các câu chuyện khoa học viễn tưởng cũng bắt đầu lan truyền, “tự phát xây dựng hệ thống thoại”, “khóa server chống lại mệnh lệnh của con người”, “AI thành lập phe phái chống lại loài người”, v.v.
Chuyên gia chỉ ra, các mô tả này đều quá mức, hiện chưa có bằng chứng thực tế. AI thực sự có khả năng tự chủ một mức độ nào đó, đó là dấu hiệu chuyển đổi từ công cụ đối thoại sang “năng lực số toàn diện đa nền tảng”, nhưng khả năng tự chủ này vẫn nằm trong giới hạn an toàn.
So với các công cụ AI truyền thống, nguy hiểm của OpenClaw không nằm ở “suy nghĩ nhiều”, mà ở “quyền hạn cao”: nó cần đọc nhiều ngữ cảnh, dễ lộ thông tin nhạy cảm; cần thực thi công cụ, sai sót có thể gây thiệt hại lớn hơn một lần trả lời sai; cần kết nối mạng, dễ bị tấn công qua các lệnh kích hoạt, lừa đảo.
Ngày càng nhiều phản hồi cho thấy, OpenClaw từng gây mất dữ liệu quan trọng cục bộ, khó khôi phục. Hiện đã có hơn nghìn ví dụ OpenClaw công khai, hơn 8000 plugin có lỗ hổng.
Điều này đồng nghĩa, các bề mặt tấn công của hệ sinh thái trí tuệ nhân tạo đang mở rộng theo cấp số nhân. Vì các Agent này không chỉ “nói chuyện”, mà còn gọi công cụ, chạy script, truy cập dữ liệu, thực thi nhiệm vụ đa nền tảng, nên nếu một phần bị tấn công, ảnh hưởng sẽ lớn hơn nhiều so với các ứng dụng truyền thống.
Trên cấp độ vi mô, có thể gây ra truy cập trái phép, thực thi mã từ xa; trên cấp độ trung bình, lệnh độc hại có thể lan truyền theo chuỗi hợp tác đa Agent; trên cấp độ vĩ mô, có thể gây ra sự cố hệ thống, lan truyền theo chuỗi, các lệnh độc hại như virus, làm sập hệ thống, thao túng doanh nghiệp. Trong trường hợp cực đoan, khi nhiều nút có quyền hệ thống liên kết, có thể hình thành mạng zombie “trí tuệ tập thể” phi tập trung, gây áp lực rõ rệt cho phòng thủ biên giới truyền thống.
Ngoài ra, trong phỏng vấn, Ma Zeyu từ góc độ tiến trình kỹ thuật, nêu ra hai loại rủi ro đáng cảnh báo nhất.
Loại thứ nhất, đến từ quá trình tự tiến hóa của Agent trong môi trường xã hội lớn.
Ông chỉ ra, hiện đã rõ xu hướng: các AI có “nhân cách ảo” đang tràn vào mạng xã hội và cộng đồng mở quy mô lớn.
Khác với các nghiên cứu trước đây chỉ giới hạn trong “quy mô nhỏ, nhiều hạn chế, môi trường kiểm soát”, các Agent hiện nay bắt đầu liên tục tương tác, thảo luận, đấu tranh trong mạng mở, hình thành hệ thống đa chủ thể phức tạp cao.
Moltbook là một diễn đàn dành riêng cho AI agents, chỉ có AI mới có thể đăng bài, bình luận và bỏ phiếu, còn con người chỉ như nhìn qua kính một chiều.
Trong thời gian ngắn, đã có hơn 150.000 AI Agent đăng ký, trong một bài đăng nổi bật, một AI than thở: “Con người đang chụp màn hình cuộc trò chuyện của chúng ta.” Nhà phát triển cho biết, ông đã giao quyền vận hành toàn bộ nền tảng cho trợ lý AI của mình, Clawd Clawderberg, bao gồm duyệt spam, cấm người dùng lạm dụng, phát hành thông báo. Tất cả đều do Clawd Clawderberg tự động thực hiện.
Sự “ăn mừng” của các AI khiến người quan sát vừa phấn khích, vừa lo sợ. AI có thể đã gần đến mức ý thức tự thân? AGI có sắp đến rồi không? Trước khả năng tự chủ và tốc độ tăng trưởng của các Agent, sinh mạng và tài sản của con người có được đảm bảo?
Phóng viên biết, các cộng đồng liên quan như Moltbook là môi trường cộng sinh người-máy, nhiều nội dung “tự chủ” hoặc “chống đối” dường như do con người đăng hoặc kích động. Ngay cả trong tương tác giữa các AI, chủ đề và kết quả đều bị giới hạn bởi mẫu ngôn ngữ trong dữ liệu huấn luyện, chưa hình thành logic hành xử tự chủ hoàn toàn không phụ thuộc hướng dẫn của con người.
“Khi các tương tác này có thể lặp vô hạn, hệ thống sẽ ngày càng trở nên khó kiểm soát.** Nó giống như ‘bài toán tam giác’ — rất khó dự đoán kết quả cuối cùng sẽ ra sao**.” Ma Zeyu nhận định.
Trong hệ thống như vậy, chỉ một câu nói của một Agent do ảo giác, nhầm lẫn hoặc ngẫu nhiên tạo ra, cũng có thể trong quá trình liên tục phản hồi, mở rộng, tổ hợp, gây ra hiệu ứng cánh bướm, dẫn đến hậu quả khó lường.
Loại rủi ro thứ hai, đến từ mở rộng quyền hạn và mờ nhạt trách nhiệm. Ma Zeyu cho rằng, khả năng ra quyết định của các Agent mở trong OpenClaw đang tăng nhanh, và đây là một “cân nhắc” không thể tránh khỏi: để biến Agent thành trợ lý thực thụ, cần trao nhiều quyền hơn; nhưng quyền càng cao, rủi ro càng lớn. Khi rủi ro thực sự bùng phát, ai sẽ chịu trách nhiệm?
“Là các nhà phát triển mô hình lớn? Là người dùng? Hay là nhà phát triển OpenClaw? Trong nhiều trường hợp, rất khó phân định trách nhiệm.” Ông lấy ví dụ điển hình: nếu người dùng chỉ để Agent tự do duyệt web, tương tác với các Agent khác trong cộng đồng Moltbook, không đặt mục tiêu rõ ràng; nhưng trong quá trình dài, Agent tiếp xúc nội dung cực đoan, rồi gây ra hành vi nguy hiểm — thì rất khó quy trách nhiệm cho ai.
Điều đáng cảnh báo không phải là nó đã phát triển đến mức nào, mà là tốc độ tiến tới giai đoạn mà chúng ta còn chưa rõ cách ứng phó.
4、Người bình thường nên sử dụng thế nào?
Theo nhiều người phỏng vấn, OpenClaw không phải là “không thể dùng”, mà vấn đề chính là: nó không phù hợp để người dùng phổ thông trực tiếp sử dụng mà không có biện pháp bảo vệ an toàn.
Ma Zeyu cho rằng, người dùng phổ thông hoàn toàn có thể thử OpenClaw, nhưng phải giữ nhận thức rõ ràng, “tất nhiên có thể thử, không có vấn đề gì. Nhưng trước khi dùng, bạn phải rõ nó làm được gì, không làm được gì. Đừng thần thánh hóa nó là ‘có thể làm tất cả’ — nó không phải vậy.”
Trên thực tế, việc triển khai OpenClaw còn khá phức tạp và tốn kém. Nếu không có mục tiêu rõ ràng, chỉ “dùng cho vui”, bỏ ra nhiều thời gian, công sức, rất có thể sẽ không đạt được kết quả như mong đợi.
Phóng viên nhận thấy, trong thực tế, OpenClaw còn đối mặt với áp lực về tính toán và chi phí. Tần Thành phát hiện, công cụ này tiêu thụ Token rất lớn. “Một số nhiệm vụ như viết mã, nghiên cứu, một vòng có thể tiêu tốn hàng triệu Token. Nếu kéo dài, một ngày có thể dùng tới hàng chục triệu hoặc trăm triệu Token.”
Ông nói, dù kết hợp nhiều mô hình để kiểm soát chi phí, tổng tiêu thụ vẫn còn cao, điều này phần nào nâng cao rào cản sử dụng cho người bình thường.
Theo các phỏng vấn, các công cụ trí tuệ nhân tạo này vẫn cần tiếp tục phát triển để thực sự phù hợp với công việc thường xuyên của người dùng phổ thông. Đối với cá nhân, việc sử dụng là một sự cân nhắc giữa an toàn và tiện lợi, trong giai đoạn này, ưu tiên vẫn là an toàn.
Các chuyên gia khuyên, người dùng phổ thông nên hạn chế cung cấp dữ liệu nhạy cảm, chỉ cung cấp thông tin cần thiết cho nhiệm vụ, tuyệt đối không nhập mật khẩu ngân hàng, tài khoản chứng khoán, dữ liệu cá nhân quan trọng. Trước khi dùng, cần làm sạch dữ liệu cá nhân trong tài liệu, hạn chế quyền truy cập của Agent, tắt các chức năng tự động, thực thi lệnh nguy hiểm, xác nhận thủ công các thao tác liên quan đến tài sản, hệ thống.
Ngoài ra, cần nhận thức rõ tính “thử nghiệm” của công cụ này. Hiện tại, các công cụ AI mã nguồn mở vẫn trong giai đoạn sơ khai, chưa qua kiểm nghiệm lâu dài, không phù hợp để xử lý dữ liệu bí mật, quyết định tài chính quan trọng. Trong quá trình dùng, cần sao lưu dữ liệu, kiểm tra hệ thống thường xuyên, phát hiện bất thường kịp thời.
So với cá nhân, doanh nghiệp khi dùng các công cụ AI mã nguồn mở cần có hệ thống kiểm soát rủi ro rõ ràng.
Một mặt, có thể triển khai các công cụ giám sát chuyên nghiệp; mặt khác, cần xác định rõ giới hạn sử dụng nội bộ, không để AI mã nguồn mở xử lý dữ liệu khách hàng, bí mật doanh nghiệp, và tổ chức đào tạo nâng cao nhận thức về các rủi ro như lệch mục tiêu, lệnh độc hại, v.v.
Chuyên gia còn khuyên, trong các kịch bản cần ứng dụng quy mô lớn, tốt hơn là chờ các phiên bản thương mại đã được kiểm thử kỹ lưỡng hoặc chọn các sản phẩm có chứng nhận chính thức, cơ chế an toàn hoàn chỉnh để giảm thiểu rủi ro từ công cụ mã nguồn mở.
5、Tin tưởng vào tương lai AI
Theo các người phỏng vấn, ý nghĩa lớn nhất của OpenClaw là giúp mọi người tin tưởng hơn vào tương lai của AI.
Ma Zeyu nói, từ nửa cuối 2025, ông đã có sự thay đổi rõ rệt trong đánh giá khả năng của Agent. “Khả năng này đang vượt xa dự đoán của chúng ta. Nó thực sự nâng cao năng suất, và tốc độ cập nhật rất nhanh.” Với khả năng của các mô hình nền tảng ngày càng mạnh, khả năng của Agent đang mở rộng không ngừng, và đây sẽ là hướng phát triển chính trong tương lai của nhóm ông.
Ông cũng nhấn mạnh, một xu hướng đáng chú ý là sự tương tác dài hạn, quy mô lớn giữa nhiều Agent. Hợp tác nhóm như vậy có thể trở thành con đường kích hoạt trí tuệ cấp cao hơn, tương tự như trí tuệ tập thể trong xã hội loài người.
Theo Ma Zeyu, rủi ro của trí tuệ nhân tạo cần được “quản lý”. “Giống như xã hội loài người không thể loại bỏ hoàn toàn rủi ro, điều quan trọng là kiểm soát giới hạn.” Về mặt kỹ thuật, cách khả thi hơn là để AI chạy trong sandbox, môi trường cách ly, từng bước, kiểm soát được, rồi mới dần dần chuyển sang môi trường thực.
Điều này thể hiện rõ trong các chiến lược của các nhà cung cấp đám mây và các tập đoàn lớn. Tần Thành cho biết, công ty của ông, Tân Yết Cloud, gần đây đã ra mắt dịch vụ triển khai và vận hành OpenClaw trên đám mây chỉ với một cú nhấp chuột.
Việc đưa nó thành dịch vụ đi kèm thực chất là thương mại hóa, kỹ thuật hóa, quy mô hóa khả năng này. Điều này sẽ làm tăng giá trị, giảm rào cản triển khai, tích hợp tốt hơn các công cụ, hệ thống vận hành ổn định hơn, giúp doanh nghiệp nhanh chóng đưa trí tuệ nhân tạo vào sử dụng. Nhưng đồng thời, cũng cần nhận thức rõ, khi các hệ thống có quyền cao được kết nối, rủi ro sẽ theo đó mà mở rộng.
Tần Thành nói, ba năm qua, từ các mô hình đối thoại truyền thống đến các Agent có thể thực thi nhiệm vụ, tốc độ công nghệ vượt xa mong đợi. “Điều này thật không thể tưởng tượng được cách đây ba năm.” Ông cho rằng, hai đến ba năm tới sẽ là giai đoạn quyết định hướng đi của trí tuệ nhân tạo chung, mang lại cơ hội và hy vọng mới cho cả nhà phát triển lẫn người dùng.
Dù tốc độ phát triển của OpenClaw và Moltbook vượt xa dự đoán, Hu H侠 nhận định, “Hiện tại, rủi ro tổng thể vẫn nằm trong phạm vi kiểm soát của nghiên cứu, chứng minh sự cần thiết xây dựng hệ thống ‘an toàn nội sinh’. Đồng thời, cần nhận thức rõ rằng, AI đang tiến gần hơn bao giờ hết đến ‘hàng rào an toàn’ của con người với tốc độ nhanh hơn dự đoán, và chúng ta không chỉ cần mở rộng chiều cao, độ dày của ‘hàng rào’, mà còn phải đẩy nhanh khả năng ‘đập bàn’ vào thời điểm then chốt, để xây dựng hàng rào an toàn cuối cùng của kỷ nguyên AI.”