Ảnh siêu thực do AI tạo ra khiến giới chuyên gia lo sợ

Tường Linh
16:22 - 07/07/2022
Công dân & Khuyến học trên

Trí thông minh nhân tạo (AI) đã tạo ra những hình ảnh tuyệt đẹp và siêu thực. Tuy nhiên thay vì vui mừng trước thành tựu này, giới chuyên gia lại tỏ ra lo lắng.

Ảnh siêu thực do AI tạo ra khiến giới chuyên gia lo sợ - Ảnh 1.

Hình ảnh siêu thực do AI tổng hợp và tạo ra.

Ảnh siêu thực do AI tạo ra khiến giới chuyên gia lo sợ - Ảnh 2.

Hình ảnh siêu thực do AI tổng hợp và tạo ra.

Ảnh siêu thực do AI tạo ra khiến giới chuyên gia lo sợ - Ảnh 3.

Hình ảnh siêu thực do AI tổng hợp và tạo ra. Nguồn: DALL-E 2 và Imagen

Những bức ảnh siêu thực cực kỳ sống động

Một triệu con gấu bông đi dạo trên đường phố Hong Kong. Một con ếch với làn da trông giống quả dâu tây. Một đĩa mì Ý và thịt viên trông giống như gương mặt của một con mèo.

Đây chỉ là những cụm từ mô tả đơn giản mà người dùng đã gửi tới cho các hệ thống AI siêu thông minh trong mấy tuần qua, với hy vọng chúng sẽ mang tới cho họ điều bất ngờ. Quả vậy, một số đại diện tiêu biểu trong số này là DALL-E 2 của công ty OpenAI và Imagen của Google Research đã cho ra những bức ảnh cực kỳ chi tiết, sống động, chỉ dựa vào những yêu cầu đơn giản kể trên.

Các bức ảnh do AI tạo ra có thể trông ngớ ngẩn, kỳ lạ hoặc thậm chí rất đẹp như một bức tranh nghệ thuật. Chúng đang được chia sẻ rộng rãi trên nhiều phương tiện truyền thông xã hội, với sự tham gia của nhiều nhân vật có ảnh hưởng trong cộng đồng công nghệ.

Không chỉ tạo ra ảnh tổng hợp, DALL-E 2 (phiên bản mới hơn của hệ thống AI cùng tên, có ít tính năng hơn mà OpenAI đã giới thiệu vào năm ngoái) cũng có thể chỉnh sửa hình ảnh hiện có, bằng cách thêm hoặc bớt các đối tượng.

Không khó để tưởng tượng rằng khả năng tạo hình theo yêu cầu này cuối cùng sẽ trở thành một công cụ cực mạnh, để phục vụ cho hoạt động sáng tạo nội dung, cho dù đó là nghệ thuật hay quảng cáo. DALL-E 2 và một hệ thống tương tự như vậy là Midjourney hiện đã được sử dụng để tạo ảnh bìa tạp chí. OpenAI và Google cũng công khai nêu ra một số cách thức để công nghệ mới có thể được khai thác thương mại, như chỉnh sửa hình ảnh hoặc tạo hình ảnh minh họa.

Cả DALL-E 2 và Imagen hiện đều chưa được tung ra cho công chúng sử dụng. Tuy nhiên ngay từ lúc này, chúng đã gây ra không ít lo lắng: Các bức ảnh do chúng tạo ra có thể là những kết quả đáng lo ngại, chứa đựng những định kiến về giới và văn hóa từ kho dữ liệu mà người ta đã cho chúng sử dụng, bao gồm hàng triệu hình ảnh được lấy từ Internet.

Nỗi lo AI có định kiến về giới và văn hóa

Các chuyên gia nói với CNN Business rằng công nghệ mới có thể lưu giữ và duy trì những thành kiến và định kiến có hại. Họ lo ngại rằng do bản chất mở của các hệ thống này nên chúng cũng có thể tự động phát tán định kiến trên quy mô lớn. Chúng cũng có khả năng được sử dụng cho các mục đích bất chính, chẳng hạn như truyền bá thông tin sai lệch.

Vài năm qua, AI đã dần trở nên phổ biến trong cuộc sống hàng ngày. Nhưng chỉ tới gần đây, công chúng mới nhận ra rằng các vấn đề như phân biệt giới tính, chủng tộc và nhiều loại thành kiến khác có thể xâm nhập vào công nghệ.

Ví dụ như các hệ thống nhận dạng khuôn đang ngày càng được xem xét kỹ lưỡng hơn, do những lo ngại về độ chính xác và thành kiến chủng tộc của chúng.

OpenAI và Google Research đã thừa nhận nhiều vấn đề và rủi ro liên quan đến hệ thống AI của họ trong tài liệu và nghiên cứu. Cả hai đều nói rằng các hệ thống này có xu hướng thiên vị về giới và chủng tộc, như mô tả những định kiến văn hóa phương Tây cũng như định kiến về giới.

OpenAI đã đưa lên mạng một tài liệu có tiêu đề "Rủi ro và hạn chế" để giải thích về những nhược điểm trong hệ thống AI của họ. Ví dụ khi xử lý từ khóa "y tá", AI của công ty sẽ cho ra tất cả kết quả là hình ảnh phụ nữ đeo ống nghe. Tương tự, cụm từ "CEO" (tổng giám đốc điều hành) cho kết quả gần như đều là hình ảnh nam giới, da trắng.

Lama Ahmad, giám đốc chương trình nghiên cứu chính sách tại OpenAI, cho biết các nhà nghiên cứu vẫn đang tìm cách đo lường sự thiên vị và định kiến trong hệ thống AI hiện tại và sẽ điều chỉnh theo thời gian. Trong khi đó Google từ chối bàn về vấn đề này.

Bởi vì Imagen và DALL-E 2 cùng nhận dữ liệu là từ ngữ và trả kết quả là hình ảnh, cả hai hệ thống đều phải sử dụng cơ chế đào tạo giống nhau: Thông qua những hình ảnh và chú thích văn bản có liên quan. Google Research và OpenAI đều đã lọc trước các hình ảnh có hại, chẳng hạn như nội dung khiêu dâm khỏi bộ dữ liệu của họ trước khi đào tạo các mô hình AI.

Ngăn chặn khả năng tạo ra hình ảnh có hại

Nhưng do kích cỡ khổng lồ của dữ liệu, họ khó có khả năng lọc hết nội dung có hại hay ngăn hệ thống AI tạo ra nội dung có hại. Trong một bài viết về Imagen, các nhà nghiên cứu của Google chỉ ra rằng, mặc dù đã lọc bớt dữ liệu, họ cũng vẫn sử dụng một bộ dữ liệu khổng lồ có bao gồm nội dung khiêu dâm, những lời nói tục tĩu phân biệt chủng tộc và "định kiến xã hội có hại".

Ngoài ra, việc lọc dữ liệu cũng có thể dẫn đến các vấn đề khác. Ví dụ, phụ nữ có xu hướng xuất hiện trong các nội dung liên quan tới tình dục nhiều hơn nam giới. Vì vậy việc lọc bớt nội dung khiêu dâm cũng làm giảm số lượng phụ nữ trong loại dữ liệu này.

Đó là chưa nói tới việc lọc bỏ nội dung xấu từ các loại dữ liệu như thế là điều không thể thực hiện. Đó là chưa kể tới việc con người liên quan trực tiếp tới hoạt động phân loại dữ liệu và mỗi người lại có niềm tin văn hóa, quy chuẩn đạo đức khác nhau khi đánh giá về cùng một vấn đề.

Một số nhà nghiên cứu đang suy nghĩ về cách có thể giảm định kiến trong các loại hệ thống AI này, nhưng vẫn có thể cho ra những hình ảnh ấn tượng. Một hướng đi đã được đặt ra là sử dụng ít hơn dữ liệu, thay vì nhiều hơn.

Alex Dimakis, một giáo sư tại Đại học Texas ở Austin, cho biết người ta có thể bắt đầu cùng một lượng rất nhỏ dữ liệu. Ví dụ, AI có thể dùng một bức ảnh của một con mèo và sẽ cắt, xoay, tạo ảnh phản chiếu... - và cắt nó, xoay nó, tạo ra một hình ảnh phản chiếu của nó, v.v. để biến một hình ảnh cùng nhiều kỹ thuật xử lý khác để cho ra các ảnh mới khác nhau một cách hiệu quả.

Hiện tại, OpenAI và Google Research đang cố gắng tập trung để hệ thống AI của họ sẽ cho ra các bức ảnh ấn tượng, dễ thương và ít gây tranh cãi. Vì thế, các AI này không thể tạo ra hình ảnh con người trông giống thật.

Cả Imagen và DALL-E 2 và OpenAI cho biết trên trang của mình rằng họ đã sử dụng "các kỹ thuật tiên tiến để ngăn chặn việc tạo ra những bức ảnh dựa trên khuôn mặt người thật, bao gồm ảnh thuộc về các nhân vật của công chúng. "Biện pháp bảo vệ này sẽ ngăn người dùng tạo ra những tấm ảnh nguy hiểm, ví dụ hình ảnh các chính trị gia cụ thể đang thực hiện một hành động bất hợp pháp.