Nguy cơ trí tuệ nhân tạo bị lạm dụng và gây ảnh hưởng tới các cuộc bầu cử lớn trong năm 2024

Hồng Ngọc
19:44 - 06/03/2024
Công dân & Khuyến học trên

2024 là năm có nhiều cuộc bầu cử nhất từ trước tới nay. Kéo theo đó là mối lo ngại ngày càng tăng về việc công nghệ trí tuệ nhân tạo (AI) có thể bị lạm dụng để tạo ra tin giả, sai lệch gây ảnh hưởng tới các cuộc bầu cử lớn trên toàn thế giới.

trí tuệ nhân tạo

Theo Diễn đàn Kinh tế Thế giới (WEF), mối lo ngại về việc trí tuệ nhân tạo gây sai lệch kết quả bầu cử đứng đầu danh sách những rủi ro lớn nhất trong năm 2024. Ảnh minh họa: LinkedIn

Trí tuệ nhân tạo và rủi ro đối với các cuộc bầu cử năm 2024

Bên cạnh những lợi ích về mặt kỹ thuật và sáng tạo, trí tuệ nhân tạo cũng đồng thời tạo ra những rủi ro và thách thức mới đối với chính trị và xã hội.

2024 là năm có nhiều cuộc bầu cử nhất từ trước tới nay. Hơn 2 tỷ cử tri sẽ đi bỏ phiếu ở 50 quốc gia, từ Mỹ, Nga, Liên minh châu Âu (EU) tới Ấn Độ, Mexico, Đài Loan (Trung Quốc), Nam Phi,... Cùng với sự phát triển nhanh chóng của các mô hình trí tuệ nhân tạo, lo ngại về khả năng chúng gây bất ổn trong các sự kiện chính trị quan trọng ngày càng tăng.

Theo "Báo cáo Rủi ro Toàn cầu 2024" của Diễn đàn Kinh tế Thế giới (WEF), mối lo ngại về việc trí tuệ nhân tạo gây sai lệch kết quả bầu cử đứng đầu danh sách những rủi ro lớn nhất trong năm nay.

WEF cho rằng mối đe dọa tin giả do AI tạo ra lớn hơn cả các vấn đề biến đổi khí hậu, sự phân cực trong xã hội, mất an ninh mạng, xung đột vũ trang, thiếu cơ hội kinh tế, lạm phát, di cư miễn cưỡng, kinh tế suy giảm và ô nhiễm. 

Tạp chí The Economist mới đây cũng đặt vấn đề về nguy cơ từ trí tuệ nhân tạo đối với các chiến dịch bầu cử và vấn đề chính trị là một trong những rủi ro đang quan tâm nhất trong năm 2024. Theo đó, việc sử dụng rộng rãi trí tuệ nhân tạo tạo sinh và ứng dụng nó trên các phương tiện truyền thông xã hội sẽ tăng nguy cơ lan truyền các chiến dịch thông tin sai lệch thông qua văn bản, hình ảnh, âm thanh và video.

Sự phổ biến của deepfake (kỹ thuật tạo ra nội dung giả mạo chân thực bằng cách sử dụng AI) sẽ ảnh hưởng đến tính minh bạch trong quá trình bầu cử. AI còn có khả năng tạo ra nội dung tùy chỉnh và chuyên biệt dành cho từng cá nhân, tăng nguy cơ chia rẽ xã hội và làm gia tăng độ phân biệt. Việc này có thể dẫn đến sự hiểu lầm, thậm chí là làm biến đổi ý kiến cử tri một cách không minh bạch. Trong một số trường hợp, trí tuệ nhân tạo có thể tạo ra nội dung dựa trên dữ liệu lịch sử và sở thích của người sử dụng, tạo nên “sự áp đặt tư duy”. Điều này có thể tăng nguy cơ thông tin một chiều trong bầu cử dựa trên thông tin chọn lọc và ảnh hưởng đến quá trình đưa ra quyết định của cử tri.

Nguy cơ AI ảnh hưởng đến bầu cử đang gây lo lắng ở châu Âu và Mỹ. Tờ The Washington Post cảnh báo độc giả rằng, trong các chiến dịch bầu cử năm 2024, trí tuệ nhân tạo và deepfake là vũ khí mới nhất trong kho vũ khí truyền thông chính trị. Tình hình có thể sẽ nghiêm trọng ở một số quốc gia chưa có luật để hạn chế sự lan truyền của deepfake. Đối với các nước này, cần có những biện pháp tăng cường giáo dục nhận thức cộng đồng về trí tuệ nhân tạo và tin giả mạo, thúc đẩy sự minh bạch trong các chiến dịch bầu cử, xây dựng hệ thống giám sát chặt chẽ để phát hiện và ngăn chặn sự lạm dụng AI trong quá trình bầu cử.

Các "ông lớn" công nghệ hợp tác ngăn chặn thông tin sai lệch, lạm dụng AI trong bầu cử

Liên quan đến những lo ngại về tác động của trí tuệ nhân tạo trong các cuộc bầu cử, Meta - công ty chủ quản của mạng xã hội Facebook - cho biết sẽ thành lập một nhóm chuyên giải quyết các vấn đề thông tin sai sự thật và lạm dụng AI trước cuộc bầu cử Nghị viện châu Âu (EP) diễn ra vào tháng 6 tới.

Ông Marco Pancini - Giám đốc phụ trách các vấn đề EU của Meta cho biết: “Khi cuộc bầu cử đến gần, chúng tôi sẽ khởi động Trung tâm điều hành các chiến dịch bầu cử để xác định các mối đe dọa tiềm ẩn và đưa ra biện pháp giảm thiểu nhanh chóng”.

Theo ông Marco Pancini, chuyên gia từ các nhóm tình báo, khoa học dữ liệu, kỹ thuật, nghiên cứu, vận hành, chính sách nội dung và đội ngũ pháp lý của công ty sẽ cùng phối hợp đẩy lùi các thông tin sai sự thật, giải quyết các hoạt động gây ảnh hưởng đến các chiến dịch bầu cử và ứng phó với các rủi ro liên quan đến việc lạm dụng trí tuệ nhân tạo tạo sinh.

Cũng theo ông Pancini, Meta đang làm việc với 26 tổ chức kiểm tra độc lập trên toàn EU, với các nội dung sử dụng 22 ngôn ngữ và sẽ bổ sung 3 đối tác mới ở Bulgaria, Pháp và Slovakia.

Cuộc bầu cử Nghị viện châu Âu sẽ diễn ra từ ngày 6-9/6/2024, 720 nhà lập pháp của EP cùng với các nước Liên minh châu Âu (EU) sẽ thông qua các dự luật và chính sách mới của toàn khu vực.

Đầu tháng 2/2024, Meta, Microsoft, OpenAI cùng 17 công ty công nghệ khác cũng đã nhất trí hợp tác để ngăn chặn các nội dung lừa đảo do AI tạo ra có thể ảnh hưởng tới các cuộc bầu cử trên toàn thế giới trong năm nay.

Thỏa thuận này có tên là “Hiệp định công nghệ nhằm chống lại việc sử dụng AI để lừa đảo trong cuộc bầu cử năm 2024”, trong đó quy định “khuôn khổ các nguyên tắc và hành động tự nguyện” bao gồm các cam kết ngăn chặn, phát hiện, ứng phó, đánh giá và xác định nguồn gốc của nội dung sai lệch, nội dung gây hiểu lầm do AI tạo ra trong cuộc bầu cử.

Với thỏa thuận này, 20 công ty cam kết sẽ tuân thủ 8 tuyên bố về sứ mệnh, bao gồm phát triển các công nghệ để giảm thiểu rủi ro liên quan đến nội dung AI giả mạo trong bầu cử, phát hiện việc phân phối và phát tán tài liệu đó trên các nền tảng mạng xã hội và minh bạch với công chúng về những nỗ lực xử lý nội dung AI có hại. Đồng thời nâng cao nhận thức của công chúng về cách bảo vệ bản thân khỏi bị thao túng bởi những nội dung sai lệch đó.

OpenAI - "cha đẻ" của chatbot AI đình đám ChatGPT cũng đang triển khai một loạt sáng kiến nhằm ngăn chặn việc các sản phẩm của mình có thể bị sử dụng cho thông tin sai lệch trong các cuộc bầu cử năm 2024.

Cụ thể, các tổ chức và người dùng hiện bị cấm sử dụng các công cụ của OpenAI để mạo danh ứng cử viên hoặc chính quyền địa phương và người dùng cũng không thể sử dụng các công cụ của OpenAI cho các chiến dịch hoặc vận động hành lang. Người dùng cũng không được phép sử dụng các công cụ của OpenAI để ngăn cản việc bỏ phiếu hoặc xuyên tạc về quy trình bỏ phiếu.

OpenAI cũng triển khai các công cụ mới để cung cấp thông tin về các sự kiện hiện có bởi chatbot ChatGPT của mình và giúp người dùng xác định xem hình ảnh có được tạo bởi phần mềm trí tuệ nhân tạo hay không.

Ngoài ra, OpenAI sẽ bắt đầu mã hóa các hình ảnh do công cụ tạo hình ảnh Dall-E 3 tạo ra với thông tin về nguồn gốc - đề cập đến dữ liệu về nguồn gốc của một phần nội dung, chẳng hạn như ai đã tạo ra hình ảnh và thời điểm nó được tạo ra. Đồng thời phát hành công cụ phát hiện hình ảnh mà mọi người có thể sử dụng để tra cứu xem hình ảnh có phải do Dall-E tạo ra hay không.

Nguồn: Reuters, WEF, Cục Thông tin Khoa học và Công nghệ Quốc gia