Bà Nguyễn Thị Hải Vân - Giám đốc Trung tâm Bồi dưỡng nghiệp vụ báo chí, Hội Nhà báo Việt Nam trong buổi Hội thảo về công nghệ AI. (Nguồn: Hội Nhà báo Việt Nam) |
Khai thác tối ưu những lợi thế mà AI mang lại, đòi hỏi những người làm truyền thông cần có trang bị cho mình những kiến thức để có thể sử dụng AI một cách hiệu quả, đồng thời đảm bảo tính tin cậy và đạo đức trong việc truyền tải thông tin.
Từ “độ nóng” của AI
Hoàn toàn rõ ràng rằng AI (Artificial Intelligence – Trí tuệ nhân tạo) đang là một trong những từ khóa hot nhất hiện nay. Vào thời điểm tháng 9/2024, tìm kiếm trên Google Search từ khóa “AI” trong 0.3 giây ghi nhận 15 tỉ 900 triệu kết quả; với từ khóa “AI tools” (các công cụ AI), trong 0.4 giây ghi nhận hơn 3 tỉ 400 triệu kết quả. Những con số khổng lồ nói lên mức độ phủ sóng, sự quan tâm đối với AI và những công cụ dựa trên nền tảng công nghệ AI trên toàn cầu.
Vào thời điểm hiện tại, đã và đang xuất hiện ngày càng nhiều công cụ AI cho các lĩnh vực đa dạng, trong đó có ngành truyền thông. Bên cạnh ChatGPT được biết đến rộng rãi, thì có nhiều ứng dụng AI được phát triển theo hướng được chuyên môn hóa, phục vụ những tác vụ chuyên biệt. Không khó để có thể liệt kê ra ở đây rất nhiều công cụ, ví dụ: Bing AI, Clause, Zapier Central cho nhóm tác vụ Chatbot; Jasper, Copy.ai, Anyword cho tác vụ sáng tạo nội dung; Descript, Wondershare, Runway cho tác vụ sản xuất và chỉnh sửa video; DALL-E3, Midjourney, Stable Diffusion cho tác vụ sáng tạo hình ảnh; Murf, AIVA cho tác vụ nội dung âm thanh... và mới đây thôi, gã khổng lồ Amazon cũng giới thiệu công cụ AI được họ phát triển là Video Generator và Image generator với mục đích để “truyền cảm hứng sáng tạo và mang lại nhiều giá trị hơn” .
Mặc dù các công cụ AI rất đa dạng ở quy mô hay mức độ chuyên môn hóa, thì về bản chất công nghệ đều có hai điểm chung là công cụ AI được phát triển dựa trên thuật toán và dữ liệu để “huấn luyện” công cụ AI.
Kiểm soát đạo đức khi sử dụng AI trong truyền thông
Không thể phủ nhận những tiện ích mà các công cụ AI mang lại và với mức độ cập nhật công nghệ nhanh chóng, càng ngày sẽ càng có thêm nhiều công cụ AI theo hướng chuyên môn hóa đến mọi ngóc ngách, đáp ứng những tác vụ từ đơn giản đến phức tạp trong ngành truyền thông. Bên cạnh sự phát triển choáng ngợp này, xuất hiện nhiều câu hỏi đặt ra cho vấn đề kiểm soát Đạo đức trong việc phát triển và sử dụng công cụ AI trong ngành truyền thông? Điều gì sẽ xảy ra nếu thuật toán và dữ liệu của công cụ AI đó được thao túng theo hướng có hại cho cộng đồng? Ai là người đảm bảo quyền sở hữu trí tuệ cho kho dữ liệu đầu vào mà công cụ AI đó sử dụng để huấn luyện? Ai là người đánh giá mức độ gây hại của chúng?
Có hay không sự bất bình đẳng giữa nhóm người có điều kiện sử dụng và nhóm không có điều kiện sử dụng công cụ AI trong cùng một tác vụ nào đó? Thậm chí, đã có những câu hỏi được đặt ra cho khả năng tiềm tàng mức độ nguy hại mất kiểm soát đến từ các công cụ AI đặc biệt trong những lĩnh vực nhạy cảm có thể tác động đến nhiều người trên quy mô lớn như truyền thông và mạng xã hội.
Nhận thức được mối lo ngại trên, nhiều tổ chức, hiệp hội, chính phủ và thậm chí ngay cả các công ty và tập đoàn phát triển công cụ AI cũng đã lần lượt đưa ra những khuyến cáo, những thông tin giải trình, và cao hơn là những Bộ quy tắc ứng xử liên quan đến Vấn đề kiểm soát Đạo đức trong công nghệ AI. Được 193 quốc gia thông qua vào năm 2021, Tuyên bố Ethics of Artificial Intelligence -The Recommendation (tạm dịch – Khuyến nghị về vấn đề đạo đức trong trí tuệ nhân tạo) của UNESCO - Tổ chức Giáo dục, Khoa học và Văn hóa của Liên hợp quốc, ghi rõ “Sự gia tăng nhanh chóng của trí tuệ nhân tạo (AI) đã tạo ra nhiều cơ hội trên toàn cầu, từ việc hỗ trợ chẩn đoán chăm sóc sức khỏe đến việc cho phép kết nối con người thông qua phương tiện truyền thông xã hội và tạo ra hiệu quả lao động thông qua các nhiệm vụ tự động.
Tuy nhiên, những thay đổi nhanh chóng này cũng làm dấy lên những lo ngại sâu sắc về mặt đạo đức. Những rủi ro như vậy liên quan đến AI đã bắt đầu chồng chất lên các bất bình đẳng hiện có, dẫn đến tổn hại hơn nữa đối với các nhóm vốn đã bị thiệt thòi…”. Và từ đó “yêu cầu UNESCO đưa ra các công cụ hỗ trợ các quốc gia thành viên, bao gồm Phương pháp đánh giá mức độ sẵn sàng, một công cụ để các chính phủ xây dựng bức tranh toàn diện về mức độ sẵn sàng của họ trong việc triển khai AI một cách có đạo đức và có trách nhiệm cho tất cả công dân của mình".
Trong cách tiếp cận toàn cầu của mình, UNESCO đưa ra chương trình Global AI Ethics and Governance Observatory (tạm dịch – Sáng kiến quan sát đạo đức và quản trị AI toàn cầu) trong đó nhấn mạnh Sáng kiến này “giới thiệu thông tin về mức độ sẵn sàng của các quốc gia trong việc áp dụng AI một cách có đạo đức và có trách nhiệm. Sáng kiến cũng tổ chức Phòng thí nghiệm đạo đức và quản trị AI, nơi tập hợp các đóng góp, nghiên cứu có tác động, bộ công cụ và các hoạt động thực hành tích cực trong nhiều vấn đề liên quan đến đạo đức AI...”
Bên những tổ chức toàn cầu như UNESCO, nhiều hiệp hội nghề nghiệp cũng đang nỗ lực đưa ra những bộ quy chuẩn của riêng mình, ví dụ IABC - Hiệp hội truyền thông Kinh doanh quốc tế, một hiệp hội với hàng nghìn thành viên từ khắp nơi trên thế giới, đưa ra Bộ nguyên tắc hướng dẫn sử dụng AI có đạo đức của các chuyên gia truyền thông, nhằm mục đích hướng dẫn các thành viên của IABC về sự liên quan của Bộ quy tắc đạo đức của IABC đối với trí tuệ nhân tạo tạo AI. Các nguyên tắc hướng dẫn này có thể được cập nhật và bổ sung theo thời gian song song với sự phát triển của công nghệ AI. Trong Bộ nguyên tắc này, có rất nhiều điểm cụ thể mà một chuyên gia truyền thông nên tuân thủ như:
“Các nguồn lực AI được sử dụng phải do con người điều hành để tạo ra những trải nghiệm tích cực và minh bạch, mang lại sự tôn trọng và tạo dựng lòng tin vào nghề truyền thông. Cần phải luôn cập nhật về các cơ hội và rủi ro nghề nghiệp mà các công cụ AI mang lại. Cần truyền đạt thông tin chính xác, khách quan và công bằng. Các công cụ AI có thể gặp phải nhiều lỗi, sự không nhất quán và các vấn đề kỹ thuật khác. Điều này đòi hỏi sự phán đoán của con người để xác minh độc lập rằng nội dung do AI tạo ra của tôi là chính xác, minh bạch và không đạo văn.
Bảo vệ thông tin cá nhân và hoặc thông tin bí mật của người khác và sẽ không sử dụng thông tin này nếu không có sự cho phép của họ. Đánh giá các đầu ra AI của mình dựa trên sự tham gia và hiểu biết của con người về cộng đồng mà đang hướng đến phục vụ. Loại bỏ sự thiên vị theo khả năng tốt nhất của mình và nhạy cảm với các giá trị và niềm tin văn hóa của người khác.
Phải tự mình kiểm tra thực tế và xác minh các đầu ra của mình với sự nghiêm ngặt chuyên nghiệp cần thiết để đảm bảo rằng tài liệu, thông tin hoặc tài liệu tham khảo của bên thứ ba là chính xác, có sự ghi nhận và xác minh cần thiết và được cấp phép đầy đủ hoặc có sự cho phép sử dụng. Không cố gắng che giấu hoặc ngụy tạo việc sử dụng AI trong đầu ra chuyên nghiệp của mình. Thừa nhận bản chất nguồn mở của AI và các vấn đề liên quan đến tính bảo mật, bao gồm cả việc nhập thông tin sai lệch, lừa dối hoặc gây hiểu lầm...
Với những công ty, tập đoàn sở hữu, phát triển và kinh doanh công cụ AI, hơn ai hết họ là những người hiểu rõ tường tận “trong chăn có rận”, họ biết rõ thuật toán nền tảng mà trên đó công cụ AI vận hành, những dữ liệu mà từ đó công cụ AI được huấn luyện. Bởi vậy, các công ty này cũng cần đưa ra những thông tin liên quan đến nguyên tắc đạo đức trong phát triển AI. Thực tế, đã có những công ty quan tâm đến vấn đề này.
Google cam kết không phát triển các công cụ AI phục vụ các lĩnh vực, khi có nguy cơ gây hại đáng kể, chúng tôi sẽ chỉ tiến hành khi chúng tôi tin rằng lợi ích lớn hơn đáng kể so với rủi ro và sẽ kết hợp các ràng buộc an toàn phù hợp. Vũ khí hoặc các công nghệ khác có mục đích chính hoặc việc triển khai là gây ra hoặc trực tiếp tạo điều kiện gây thương tích cho con người. Các công nghệ thu thập hoặc sử dụng thông tin để giám sát vi phạm các chuẩn mực được quốc tế chấp nhận. Các công nghệ có mục đích vi phạm các nguyên tắc được chấp nhận rộng rãi của luật pháp quốc tế và nhân quyền.
Về khía cạnh bảo mật và an toàn, Google cam kết: “Chúng tôi sẽ tiếp tục phát triển và áp dụng các biện pháp an toàn và bảo mật mạnh mẽ để tránh những kết quả không mong muốn tạo ra rủi ro gây hại. Chúng tôi sẽ thiết kế các hệ thống AI của mình để thận trọng một cách thích hợp và tìm cách phát triển chúng theo các biện pháp tốt nhất trong nghiên cứu về tính an toàn của AI. Chúng tôi sẽ kết hợp các nguyên tắc bảo mật của mình vào quá trình phát triển và sử dụng các công nghệ AI của mình. Chúng tôi sẽ tạo cơ hội để thông báo và đồng ý, khuyến khích các kiến trúc có biện pháp bảo vệ quyền riêng tư và cung cấp sự minh bạch và kiểm soát phù hợp đối với việc sử dụng dữ liệu”.
Tương tự Google, Microsoft cũng đưa ra tuyên bố về Bộ nguyên tắc và cách tiếp cận công nghệ AI, trong đó nhấn mạnh: “Chúng tôi cam kết đảm bảo các hệ thống AI được phát triển một cách có trách nhiệm và theo cách đảm bảo sự tin tưởng của mọi người...”. Ngoài ra bằng cách này hay cách khác, những công ty công nghệ lớn đang đầu tư mạnh mẽ phát triển công cụ AI như Amazon, OpenAI cũng đưa ra những cam kết của riêng mình.
Rất nhiều ví dụ trong lịch sử đã chứng minh tính hai mặt của công nghệ, có yếu tố tích cực và song hành với nó là yếu tố tiêu cực. Suy cho cùng, dù là nền tảng công nghệ rất “hightech” nhưng AI vẫn dựa trên những thuật toán và dữ liệu được phát triển và thu thập bởi con người; đồng thời hầu hết những sản phẩm AI là một phần trong kế hoạch kinh doanh của những công ty sở hữu nó.
Do vậy, luôn tiềm ẩn những rủi ro đến từ mặt kỹ thuật cũng như từ chính đội ngũ phát triển và quản lý sản phẩm. Vấn đề đặt ra ở đây là quy mô tác động có thể rất lớn của những công cụ AI đối với số đông, thậm chí trên cả bình diện kinh tế - xã hội của một cộng đồng. Việc kiểm soát đạo đức khi sử dụng công nghệ AI được quan tâm kịp thời là một tín hiệu đáng mừng với sự vào cuộc của các tổ chức quốc tế quy mô lớn như Liên hợp quốc, hay các chính phủ, rồi đến hiệp hội ngành nghề và hơn hết là ở ngay tại những đơn vị phát triển công nghệ.
Mặc dù vậy, cũng như danh sách công cụ AI liên tục tung ra phiên bản mới, cái sau tinh vi và phức tạp hơn cái trước, thì những Bộ quy tắc, Nguyên tắc hay Hướng dẫn cũng cần được cập nhật và bổ sung kịp thời, hơn thế nữa cần phải đi trước để phòng ngừa, giới hạn và kiểm soát những đơn vị phát triển sản phẩm và những người sử dụng trong khuôn khổ mà ở đó khả năng tuân thủ Kiểm soát đạo đức trong công nghệ AI nói chung và những người làm truyền thông nói riêng đạt được hiệu quả cao nhất.