Theo đó, một bức ảnh về vụ nổ gần Lầu Năm Góc do trí thông minh nhân tạo (AI) tạo ra đã được chia sẻ trên mạng xã hội Mỹ hôm 22/5 khiến thị trường chứng khoán lao dốc trong một thời gian ngắn. Qua đó làm dấy lên lo ngại về thông tin giả sai lệch bắt nguồn từ AI.
Bức ảnh giả do AI tạo ra về vụ nổ gần Lầu Năm Góc. |
Nick Waters đến từ Bellingcat - nhóm xác minh tin tức trực tuyến đã nhanh chóng chỉ ra những vấn đề đáng chú ý với bức ảnh. Thứ nhất là không có nhân chứng trực tiếp nào chứng thực sự việc này. Tòa nhà trong bức ảnh cũng không giống như Lầu Năm Góc. Một số chi tiết bất thường như cột đèn nổi và cột đen nhô ra khỏi vỉa hè là dấu hiệu cho thấy bức hình này không thực tế.
Có nhiều công cụ trí tuệ nhân tạo (AI) tái tạo như Midjourney, Dall-e 2 và Stable Diffusion có thể tạo ra những hình ảnh sống động như thật. Tuy nhiên, các công cụ này sẽ tự lấp đầy khoảng trống khi thiếu dữ liệu.
Kênh Al Jazeera đã đưa ra một số biện pháp để phân biệt giữa ảnh do AI tạo ra và ảnh thật của những sự kiện lớn khi chúng xuất hiện trên internet như sau:
- Trong trường hợp xảy ra một vụ nổ hoặc sự kiện lớn nào đó, thường sẽ có thông tin thực tế từ nhiều người cũng như từ nhiều góc độ khác nhau.
- Ai đăng tải nội dung? Vị trí của họ lẫn vị trí của sự kiện. Họ đang theo dõi những tài khoản nào và những người đang theo dõi tài khoản của họ. Liệu bạn có thể tiếp cận hoặc nói chuyện với họ không?
- Phân tích hình ảnh cũng như môi trường xung quanh: Tìm kiếm manh mối trong bức hình như địa điểm gần đó, biển báo giao thông… giúp bạn xác định vị trí hoặc thời điểm sự kiện có thể diễn ra.
- Đối với hình ảnh có con người, bạn hãy chú ý đến đôi mắt, bàn tay và tư thế chung của họ. Những video do AI tạo ra bắt chước con người được gọi là deep fakes, có xu hướng gặp vấn đề về chớp mắt vì hầu hết những bộ dữ liệu đào tạo không chứa khuôn mặt nhắm mắt. Bàn tay sẽ không cầm nắm đồ vật đúng cách.
- Da của người trong hình ảnh do AI tạo ra thường sẽ mịn màng, thậm chí tóc và răng của họ cũng hoàn hảo siêu thực.