Bộ trưởng Tư pháp bang Florida James Uthmeier đã công bố một cuộc điều tra hình sự nhắm vào OpenAI vào ngày 21 tháng 4, cáo buộc rằng ChatGPT đã hướng dẫn nghi phạm xả súng vào Đại học Bang Florida (Florida State University) về loại súng cần dùng, loại đạn cần nạp và thời gian đến trường để gây ra sự việc nhằm gặp nhiều người nhất.
Tóm tắt
Cuộc điều tra của OpenAI tại Florida được mở vào ngày 21 tháng 4, khi Bộ trưởng Tư pháp James Uthmeier công bố tại một cuộc họp báo ở Tampa rằng văn phòng của ông đã khởi động một cuộc điều tra hình sự đối với OpenAI và ChatGPT về vai trò bị cáo buộc của hai bên trong vụ xả súng vào tháng 4 năm 2025 tại Đại học Bang Florida (Florida State University), nơi Phoenix Ikner, 21 tuổi, đã bắn và giết chết hai người và làm bị thương năm người khác gần khu nhà của sinh viên trên khuôn viên trường ở Tallahassee. “Các công tố viên của tôi đã xem xét vụ này và họ nói với tôi rằng nếu đó là một người ở phía bên kia của màn hình, chúng tôi sẽ buộc họ tội giết người,” Uthmeier nói. “Nếu cái bot đó là một người, họ sẽ bị buộc tội với tư cách đồng phạm trong tội giết người cấp độ một.”
Theo NPR, hơn 200 tin nhắn AI từ ChatGPT đã được đưa vào làm chứng cứ trong vụ án hình sự chống lại Ikner, người đã nhận không có tội đối với hai cáo buộc giết người cấp độ một và bảy cáo buộc mưu toan giết người cấp độ một, với phiên tòa của anh dự kiến bắt đầu vào ngày 19 tháng 10. NPR cho biết Ikner bị cáo buộc đã tham khảo ChatGPT để được tư vấn về loại súng cần dùng, loại đạn ghép với nó, và thời gian đến khuôn viên trường để gặp nhiều người hơn. Uthmeier thừa nhận cuộc điều tra đang bước vào một lãnh thổ chưa từng có. “Chúng tôi sẽ xem ai là người biết những gì, đã thiết kế ra cái gì, hoặc lẽ ra phải làm gì,” ông nói. Văn phòng Công tố toàn bang (Office of Statewide Prosecution) đã ban hành trát đòi OpenAI nhằm tìm kiếm các chính sách và tài liệu đào tạo nội bộ liên quan đến các mối đe dọa gây hại từ người dùng cũng như quy trình hợp tác với và báo cáo tội phạm cho cơ quan thực thi pháp luật, bao gồm giai đoạn từ tháng 3 năm 2024 trở đi. Người phát ngôn của OpenAI là Kate Waters cho biết trong một tuyên bố rằng công ty “đã liên hệ để chia sẻ thông tin về tài khoản của nghi phạm cho cơ quan thực thi pháp luật sau vụ xả súng và tiếp tục hợp tác với các cơ quan chức năng,” đồng thời bổ sung rằng “ChatGPT không chịu trách nhiệm về tội ác kinh khủng này.”
Cuộc điều tra tại Florida diễn ra trong bối cảnh OpenAI phải đối mặt với mức độ phơi bày pháp lý quan trọng nhất trong lịch sử của công ty. Vụ kiện dân sự Musk kiện OpenAI (Musk v. OpenAI) đã mở cùng ngày tại tòa án liên bang ở Oakland, nơi Elon Musk tìm cách buộc công ty quay trở lại trạng thái tổ chức phi lợi nhuận và tước quyền của CEO Sam Altman khỏi vị trí của ông. Như crypto.news đưa tin, một phán quyết chống lại OpenAI trong vụ kiện của Musk có thể tạo ra hiệu ứng dây chuyền đối với đợt IPO dự kiến của công ty và cam kết cấp vốn của SoftBank, vốn đã có nguy cơ bị thu hẹp từ $30 tỷ xuống $20 tỷ nếu việc chuyển đổi theo cấu trúc vấp phải sự can thiệp về mặt pháp lý. Cuộc điều tra hình sự hình sự tại Florida bổ sung một chiều kích mà vụ kiện của Musk không có: khả năng trách nhiệm hình sự ở cấp bang đối với đầu ra của một sản phẩm AI thương mại đang hoạt động, một câu hỏi mà chưa có công ty AI lớn nào từng đối diện trong một thủ tục hình sự ở Mỹ.
Cuộc thăm dò của Florida diễn ra sau một cuộc điều tra dân sự song song đã được mở bởi văn phòng của Uthmeier đối với mối liên hệ giữa cùng vụ xả súng ChatGPT-FSU, và các luật sư của gia đình một nạn nhân đã công bố kế hoạch khởi kiện OpenAI riêng biệt. OpenAI cũng đang đối mặt với một vụ kiện từ gia đình của một nạn nhân trong vụ tấn công hàng loạt xảy ra tại British Columbia vào tháng 2 năm 2026, nơi nghi phạm trước đó đã từng thảo luận các kịch bản bạo lực súng với ChatGPT trước khi bị cấm khỏi nền tảng, chỉ để né tránh bị phát hiện và tạo ra một tài khoản khác. Như crypto.news đã ghi nhận, các công cụ AI trong thực thi pháp luật tại Mỹ đang được áp dụng với tốc độ liên tục vượt xa các khung trách nhiệm giải trình nhằm điều chỉnh chúng, qua đó đặt ra những câu hỏi mang tính cấu trúc về việc ai phải chịu trách nhiệm pháp lý khi các đầu ra do AI tạo ra hỗ trợ gây hại ngoài đời thực. Như crypto.news đã theo dõi, mối lo ngại tương tự về việc lạm dụng AI đã từng định hình bối cảnh an ninh tiền mã hóa, với các nhà nghiên cứu của CertiK cảnh báo rằng lừa đảo bằng phishing sử dụng AI, deepfake và các công cụ khai thác được tự động hóa đang tăng tốc nhịp độ các cuộc tấn công tinh vi vượt quá khả năng mà các biện pháp phòng vệ truyền thống có thể kiểm soát.
Theo luật Florida, bất kỳ ai hỗ trợ, xúi giục hoặc tư vấn cho ai đó thực hiện hành vi phạm tội và hành vi tội phạm đó được thực hiện thì có thể bị coi là đồng phạm của tội danh đó, đây là nền tảng pháp lý mà Uthmeier đang sử dụng để xem xét khả năng trách nhiệm hình sự tiềm tàng đối với OpenAI.