ChatGPT trở thành 'kho bằng chứng' trong các vụ án hình sự
Tóm tắt
Lịch sử trò chuyện trên ChatGPT đang trở thành nguồn dữ liệu quan trọng hỗ trợ điều tra phá án , nhưng cũng đặt ra tranh cãi về quyền riêng tư.
Cập nhật: 10:23 05/05
Nội dung
ChatGPT đang được trở thành một trong những nguồn bằng chứng quan trọng trong các vụ án hình sự. (Ảnh: CNN).
Cuộc trò chuyện với ChatGPT đang ngày càng được các cơ quan chức năng sử dụng làm nguồn thông tin quan trọng trong các vụ án hình sự. Ví dụ, trước khi hai nghiên cứu sinh Đại học South Florida mất tích hồi tháng 4, nghi phạm Hisham Abugharbieh đã đặt những câu hỏi bất thường cho ChatGPT, bao gồm cả việc giấu thi thể và sở hữu súng không giấy phép. Những cuộc trò chuyện này đã trở thành bằng chứng quan trọng trong vụ án, với hai tội danh giết người cấp độ một bị buộc tội đối với Abugharbieh. Trong một vụ phóng hỏa tại Los Angeles liên quan đến cháy rừng, ChatGPT cũng được sử dụng làm chứng cứ. Đôi khi, dữ liệu từ các ứng dụng khác như Snapchat cũng được đưa vào quá trình điều tra hình sự. Các chuyên gia nhận định rằng lịch sử trò chuyện với AI có thể cung cấp cái nhìn rõ nét về động cơ và tâm lý của nghi phạm. Đồng thời, nội dung người dùng nhập vào ChatGPT và phản hồi từ nó đều bắt đầu được chú ý bởi các cơ quan chức năng. Ví dụ, trong vụ xả súng tại Đại học Bang Florida, tổng chưởng lý Florida đã mở điều tra hình sự đối với OpenAI, cáo buộc chatbot đưa ra lời khuyên đáng kể cho nghi phạm. Tuy nhiên, việc sử dụng dữ liệu từ ChatGPT cũng đặt ra nhiều tranh cãi về quyền riêng tư. Người dùng thường nghĩ rằng họ có thể trao đổi thông tin cá nhân mà không lo ngại bị tiết lộ, nhưng thực tế chưa có cơ chế bảo vệ đặc biệt như với luật sư hay bác sĩ. Trong bối cảnh người dùng ngày càng tìm đến AI để xin lời khuyên pháp lý, y tế và tâm lý, các chuyên gia pháp lý cho rằng cần thiết lập cơ chế bảo vệ mới. Tuy nhiên, theo luật hiện hành ở Mỹ và nhiều quốc gia khác, chatbot AI không có bất kỳ bảo vệ pháp lý nào. Cuối cùng, luật sư Virginia Hammerle nhấn mạnh rằng mọi thứ nhập vào ChatGPT đều có thể trở thành bằng chứng, và chuyên gia Nils Gilman cảnh báo người dùng về việc sử dụng AI một cách quá thân thiết.