Cơ quan chức năng bang Florida (Mỹ) đã mở cuộc điều tra hình sự nhằm vào OpenAI (công ty phát triển chatbot ChatGPT) sau khi xuất hiện nghi vấn công cụ này có thể đã bị lợi dụng trong một vụ xả súng nghiêm trọng tại trường đại học hồi năm ngoái. Theo đó, cơ quan công tố đã gửi yêu cầu cung cấp tài liệu tới OpenAI để phục vụ quá trình điều tra.
Nghi phạm được cho là đã hỏi ChatGPT trước khi gây án
Theo kết quả điều tra ban đầu, nghi phạm trong vụ xả súng xảy ra năm 2025 tại Đại học Bang Florida được cho là đã “dựa vào ChatGPT để xin lời khuyên” liên quan đến việc thực hiện vụ tấn công.
Ảnh: CNN
Vụ việc khiến 2 người thiệt mạng và 6 người khác bị thương, gây chấn động dư luận Mỹ. Các tài liệu thu thập được cho thấy nghi phạm đã trao đổi với chatbot về nhiều nội dung như phản ứng của xã hội đối với các vụ xả súng, thời điểm đông người tại khu sinh hoạt sinh viên, cũng như mức độ sát thương của vũ khí ở cự ly gần. Giới chức cho rằng những thông tin này có thể đã góp phần hỗ trợ quá trình lên kế hoạch gây án.
“Nếu là con người, ChatGPT có thể bị truy tố”
Tổng chưởng lý bang Florida, ông James Uthmeier, cho biết: nếu ChatGPT là một con người, hệ thống này có thể phải đối mặt với cáo buộc nghiêm trọng, thậm chí là tội giết người. Cuộc điều tra hiện tại nhằm làm rõ liệu OpenAI có phải chịu trách nhiệm pháp lý đối với hành vi của chatbot trong vụ việc hay không. Đây được xem là một bước đi chưa từng có tiền lệ trong lĩnh vực công nghệ và pháp luật.
Bên cạnh đó, giới chức Florida cũng coi đây là hành động cần thiết nhằm bảo vệ cộng đồng, đặc biệt là trẻ em, trước các nguy cơ từ những công nghệ mới đang phát triển nhanh chóng.
Bên cạnh đó, giới chức Florida cũng coi đây là hành động cần thiết nhằm bảo vệ cộng đồng, đặc biệt là trẻ em, trước các nguy cơ từ những công nghệ mới đang phát triển nhanh chóng.
Tranh cãi về trách nhiệm của AI
Vụ việc ngay lập tức làm dấy lên tranh luận lớn về vai trò và trách nhiệm của trí tuệ nhân tạo trong các hành vi bạo lực ngoài đời thực. Trong tuyên bố chính thức, OpenAI phủ nhận trách nhiệm, cho rằng ChatGPT chỉ cung cấp thông tin có sẵn trên Internet và không khuyến khích các hành vi vi phạm pháp luật.
Tuy nhiên, việc một công ty AI bị đưa vào diện điều tra hình sự liên quan trực tiếp đến một vụ án mạng đã đặt ra câu hỏi: liệu các hệ thống trí tuệ nhân tạo có thể bị coi là “đồng phạm” nếu bị lợi dụng cho mục đích xấu?
Tuy nhiên, việc một công ty AI bị đưa vào diện điều tra hình sự liên quan trực tiếp đến một vụ án mạng đã đặt ra câu hỏi: liệu các hệ thống trí tuệ nhân tạo có thể bị coi là “đồng phạm” nếu bị lợi dụng cho mục đích xấu?
Bài toán pháp lý chưa có lời giải
Giới chuyên gia nhận định, vụ việc tại Florida có thể trở thành tiền lệ quan trọng, định hình cách các quốc gia quản lý và quy trách nhiệm đối với AI trong tương lai. Trong bối cảnh công nghệ AI ngày càng phổ biến, ranh giới giữa “cung cấp thông tin” và “tiếp tay cho hành vi nguy hiểm” đang trở nên mờ nhạt hơn bao giờ hết.
Được phối hợp thực hiện bởi các chuyên gia của Bkav,
cộng đồng An ninh mạng Việt Nam WhiteHat
và cộng đồng Khoa học công nghệ VnReview