📞

OpenAI ra mắt công cụ bắt chước giọng nói của bất kỳ ai, chuyên gia cảnh báo 'làn sóng' deepfake

Chu Văn 12:23 | 30/03/2024
OpenAI vừa giới thiệu một công cụ nhân bản giọng nói "Voice Engine" - có thể bắt chước giọng nói của bất kỳ ai.
OpenAI ra mắt công cụ nhân bản giọng nói của bất kỳ ai, chuyên gia cảnh báo về 'làn sóng' deepfake. (Nguồn: Getty Images)

Theo bài đăng trên blog của OpenAI chia sẻ kết quả thử nghiệm quy mô nhỏ của "Voice Engine", công cụ này cơ bản có thể sao chép y hệt giọng nói của người nào đó dựa trên mẫu âm thanh 15 giây. Vì vậy, nó sẽ được kiểm soát chặt chẽ cho đến khi các biện pháp bảo vệ được áp dụng để ngăn chặn các tin giả âm thanh nhằm đánh lừa người nghe.

Người dùng chỉ cần tải lên bản ghi âm của mình và một đoạn văn bản, Voice Engine sẽ đọc văn bản đó bằng giọng nói tổng hợp giống giọng nói của người dùng. Giọng nói tổng hợp này có thể đọc các ngôn ngữ khác nhau, vượt ra ngoài ngôn ngữ mẹ của người dùng. Ví dụ, người nói tiếng Anh có thể sử dụng Voice Engine để tạo ra giọng nói tiếng Tây Ban Nha, Pháp, Trung Quốc hoặc nhiều ngôn ngữ khác bằng giọng của chính mình.

OpenAI thừa nhận việc tạo ra giọng nói tiềm ẩn những rủi ro nghiêm trọng, đặc biệt là trong năm bầu cử. Tuy nhiên, công ty này cho biết đang hợp tác với các đối tác trong nước và quốc tế từ chính phủ, các cơ quan truyền thông, giải trí, giáo dục, xã hội dân sự và các lĩnh vực khác với mục đích tiếp thu các ý kiến phản hồi để xây dựng phát triển công cụ này an toàn.

OpenAI cho biết đã triển khai một bộ các biện pháp an toàn, bao gồm đánh dấu nguồn gốc của bất kỳ âm thanh nào được Voice Engine tạo ra, cũng như chủ động theo dõi cách thức sử dụng công cụ này.

"Đây là một công nghệ nhạy cảm và việc triển khai cần được thực hiện đúng đắn", Jeff Harris, Giám đốc sản phẩm của OpenAI, cho biết trong một cuộc phỏng vấn. OpenAI đang nghiên cứu các phương pháp đánh dấu bản quyền cho giọng nói tổng hợp hoặc bổ sung các tính năng kiểm soát để ngăn chặn việc sử dụng trái phép giọng nói của các chính trị gia hoặc nhân vật nổi tiếng khác.

Các nhà nghiên cứu về thông tin sai lệch lo ngại những nguy cơ từ việc lạm dụng ồ ạt các ứng dụng chạy bằng AI trong năm bầu cử quan trọng do các công cụ nhân bản giọng nói đang gia tăng, giá rẻ, dễ sử dụng và khó truy vết.

Một trong những ví dụ là cuộc gọi được tạo ra bằng AI, sản phẩm trí tuệ của một nhân viên vận động hành lang cho nghị sĩ Minnesota Dean Phillips, có giọng nói giống như Tổng thống Joe Biden kêu gọi mọi người không bỏ phiếu trong cuộc bầu cử sơ bộ New Hampshire vào tháng 1/2024.

Sự cố này khiến các chuyên gia lo ngại về một làn sóng thông tin sai lệch dạng deepfake (âm thanh hoặc video giả mạo) do AI tạo ra trong cuộc đua vào Nhà Trắng năm 2024 cũng như các cuộc bầu cử quan trọng khác trên toàn cầu trong năm nay.