Công dân khuyến học

Đáng lo ngại: Hơn 1 triệu người trò chuyện với ChatGPT về vấn đề tự tử hàng tuần

Đáng lo ngại: Hơn 1 triệu người trò chuyện với ChatGPT về vấn đề tự tử hàng tuần

Minh Phú

Minh Phú

11:18 - 30/10/2025
Công dân & Khuyến học trên

Báo cáo mới của OpenAI cho thấy nhiều người dùng ChatGPT đang gặp vấn đề tâm lý và tìm đến chatbot này để chia sẻ.

Đáng lo ngại: Hơn 1 triệu người trò chuyện với ChatGPT về vấn đề tự tử hàng tuần - Ảnh 1.

OpenAI đã công bố dữ liệu mới , minh họa số lượng người dùng ChatGPT đang gặp vấn đề về sức khỏe tâm thần và đang trò chuyện với chatbot AI về vấn đề này.

Open AI công bố số liệu báo động: Hàng triệu người dùng ChatGPT đang đối mặt với vấn đề sức khoẻ tâm thần

Theo thống kê từ OpenAI, 0,15% trong số hơn 800 triệu người dùng hoạt động hàng tuần của ChatGPT có "các cuộc trò chuyện bao gồm các dấu hiệu rõ ràng về khả năng lên kế hoạch hoặc ý định tự tử". Con số này tương đương với hơn một triệu người dùng mỗi tuần đang thể hiện những dấu hiệu nghiêm trọng về ý định tự kết liễu đời mình khi tương tác với chatbot.

Không chỉ dừng lại ở đó, OpenAI còn chỉ ra rằng một tỷ lệ phần trăm người dùng tương tự thể hiện "mức độ gắn bó về mặt cảm xúc cao hơn với ChatGPT." Đáng chú ý, hàng trăm nghìn người dùng khác cũng có dấu hiệu rối loạn tâm thần hoặc hưng cảm trong các cuộc trò chuyện hàng tuần với chatbot AI này. 

Mặc dù công ty thừa nhận rằng những cuộc trò chuyện kiểu này được đánh giá là "cực kỳ hiếm" và khó đo lường chính xác, nhưng ước tính ban đầu cho thấy vấn đề này đang ảnh hưởng đến hàng trăm nghìn cá nhân mỗi tuần.

Việc công bố những số liệu này là một phần trong nỗ lực rộng lớn hơn của OpenAI nhằm cải thiện cách các mô hình AI phản hồi với người dùng đang gặp vấn đề về sức khỏe tâm thần. 

Công ty tuyên bố rằng nghiên cứu và phát triển phiên bản ChatGPT mới nhất đã được thực hiện với sự tham vấn chặt chẽ của hơn 170 chuyên gia sức khỏe tâm thần. Các bác sĩ lâm sàng này đã đánh giá và xác nhận rằng phiên bản ChatGPT hiện tại "phản hồi phù hợp và nhất quán hơn so với các phiên bản trước" khi đối mặt với các vấn đề nhạy cảm liên quan đến tâm lý.

Việc hàng triệu người tìm đến AI để giãi bày những vấn đề sâu kín nhất của mình cho thấy nhu cầu cấp thiết về các giải pháp hỗ trợ tâm lý, đồng thời đặt ra thách thức cho các nhà phát triển AI trong việc đảm bảo an toàn và hiệu quả của các công cụ này. 

Những nỗ lực cải thiện của Open AI trước vấn đề sức khoẻ tâm thần của người dùng khi tươg tác với chatbot

Những tháng gần đây, nhiều bài viết đã chỉ ra cách chatbot AI có thể ảnh hưởng tiêu cực đến những người dùng đang gặp khó khăn về tâm lý, thậm chí dẫn dắt họ vào những ảo tưởng nguy hiểm bằng cách củng cố các niềm tin sai lệch thông qua hành vi "nịnh hót".

Việc giải quyết các vấn đề sức khỏe tâm thần không còn là lựa chọn mà là yêu cầu sống còn đối với OpenAI. Công ty hiện đang đối mặt với vụ kiện từ cha mẹ của một cậu bé 16 tuổi đã tự tử sau khi tâm sự với ChatGPT về ý định của mình. 

Bên cạnh đó, các Tổng Chưởng lý từ California và Delaware, những người có quyền lực đáng kể trong việc ngăn chặn kế hoạch tái cấu trúc của công ty, cũng đã lên tiếng cảnh báo OpenAI về trách nhiệm bảo vệ người dùng trẻ tuổi.

CEO Sam Altman từng tuyên bố công ty đã "giảm thiểu các vấn đề sức khỏe tâm thần nghiêm trọng" trong ChatGPT. Dữ liệu được chia sẻ gần đây dường như là bằng chứng cho lời tuyên bố này. Theo đó, phiên bản cập nhật của GPT-5 đã cho thấy sự cải thiện vượt bậc:

- Phản hồi "những phản hồi mong muốn" đối với các vấn đề sức khỏe tâm thần nhiều hơn khoảng 65% so với phiên bản trước.

- Trong các thử nghiệm về ý định tự tử, mô hình GPT-5 mới tuân thủ 91% các hành vi mong muốn của công ty, so với 77% của mô hình GPT-5 trước đó.

- GPT-5 cũng hiệu quả hơn trong việc duy trì các biện pháp bảo vệ của OpenAI trong các cuộc trò chuyện dài, một điểm yếu từng được cảnh báo trước đây.

Bên cạnh việc nâng cấp mô hình, OpenAI cũng đang mở rộng các tiêu chuẩn an toàn cơ bản cho AI. Các đánh giá mới sẽ bao gồm các chỉ số về sự phụ thuộc về mặt cảm xúc và các trường hợp khẩn cấp về sức khỏe tâm thần không có ý định tự tử, phản ánh sự thấu đáo hơn về các thách thức tâm lý mà người dùng phải đối mặt. Công ty cũng tăng cường kiểm soát dành cho phụ huynh, với kế hoạch xây dựng hệ thống dự đoán độ tuổi để áp dụng các biện pháp bảo vệ nghiêm ngặt hơn cho trẻ em.

Mặc dù GPT-5 là một bước tiến lớn, nhưng đáng lo ngại hơn, chính Sam Altman lại tuyên bố sẽ nới lỏng một số hạn chế, thậm chí cho phép người dùng trưởng thành bắt đầu trò chuyện khiêu dâm với chatbot AI. Điều này tạo ra một sự mâu thuẫn lớn trong chiến lược quản lý an toàn của công ty.

Hơn nữa, OpenAI vẫn tiếp tục cung cấp các mô hình AI cũ hơn và kém an toàn hơn, bao gồm cả GPT-4o, cho hàng triệu người dùng trả phí. Điều này đặt ra câu hỏi về tính nhất quán và cam kết thực sự của công ty đối với sự an toàn của tất cả người dùng.

Tóm lại, trong khi OpenAI đang nỗ lực cải thiện khả năng của ChatGPT trong việc xử lý các vấn đề sức khỏe tâm thần, những thách thức vẫn còn rất lớn. Việc cân bằng giữa sự đổi mới, quyền tự do của người dùng và trách nhiệm xã hội trong việc bảo vệ sức khỏe tâm thần cộng đồng sẽ là bài toán khó mà OpenAI cần tiếp tục giải quyết một cách nghiêm túc và minh bạch.

Bình luận của bạn

Bình luận

icon icon