Mặt trái của AI và những "chiêu" lừa đảo công nghệ mới
Không phải lúc nào AI cũng được sử dụng cho mục đích tốt. Những kẻ lừa đảo ngày càng tinh vi, lợi dụng AI để tạo ra những kịch bản giả, khiến nạn nhân tin rằng họ đang liên lạc với bạn bè hoặc người thân đang gặp khó khăn.
Dù AI là một công cụ mạnh mẽ và ngày càng phát triển, chúng ta cần tỉnh táo và cảnh giác trước những nguy cơ tiềm ẩn của nó. Đặc biệt, những trò lừa đảo cũ kỹ nay đã được AI nâng cấp, trở nên dễ dàng và thuyết phục hơn.
Vì vậy, bạn cần nâng cao kiến thức về AI và những nguy cơ tiềm ẩn để bảo vệ bản thân và cộng đồng trước những thủ đoạn lừa đảo ngày càng tinh vi nhờ sự mạnh mẽ của AI.
Nhân bản giọng nói của gia đình, người thân, bạn bè
Cuối tháng 5/2024, một vụ lừa đảo nhân bản giọng nói bằng AI tại Nhà Trắng đã xảy ra. Kẻ lừa đảo đã sử dụng công nghệ nhân bản giọng nói để mạo danh Tổng thống Biden và thực hiện một loạt cuộc gọi tự động bất hợp pháp trong cuộc bầu cử sơ bộ ở New Hampshire (Mỹ). Kẻ lừa đảo này ngay lập tức đã bị bắt và bị phạt 6 triệu USD. Từ sau vụ này, lừa đảo công nghệ cũng cẩn thận và tinh vi hơn.
Những tiến bộ trong công nghệ mới đặc biệt là sự phát triển của trí tuệ nhân tạo AI đã cho phép người dùng tạo ra một giọng nói mới chỉ từ vài giây âm thanh. Điều đó có nghĩa là bất kỳ ai có giọng nói từng được lan truyền công khai thông qua một bản tin, một cuộc gọi, một video hay một file ghi âm trên YouTube hoặc trên phương tiện truyền thông xã hội đều có nguy cơ bị sao chép giọng nói.
Công nghệ AI ngày càng được sử dụng rộng rãi hơn để tạo ra những phiên bản giả mạo của người thân hoặc bạn bè gần giống như người thật. Để đạt được mục tiêu lừa đảo, thủ phạm thường tạo ra những đoạn clip giọng nói yêu cầu giúp đỡ.
Ví dụ, cha mẹ có thể nhận được cuộc gọi từ một số điện thoại lạ nghe giống như con mình, nói rằng đồ đạc của con bị đánh cắp khi đang đi du lịch, một người lạ đã cho con mượn điện thoại để gọi cho cha mẹ và yêu cầu cha mẹ gửi tiền đến một địa chỉ, người nhận lạ, v.v.
Kẻ lừa đảo cũng có thể dễ dàng viết ra rất nhiều kịch bản éo le, khó khăn liên quan đến tai nạn giao thông, vi phạm giao thông, các vụ gây gổ, đánh nhau, mất mát (nếu không nộp tiền/đền tiền sẽ không được trả xe, không được thả,...); hoặc các vấn đề liên quan tới y tế (bị bệnh nặng hết tiền chữa trị, phương pháp điều trị này không được bảo hiểm chi trả, đang cấp cứu hôn mê bất tỉnh...), v.v.
Ngay cả chuyên gia cũng có thể bị đánh lừa bởi giọng nói giả mạo. Vì thế, đừng cố gắng "bắt lỗi" công nghệ hay tìm ra điểm khác biệt trong giọng nói. Nếu ai đó tự xưng là bạn bè hoặc người thân của bạn, một cuộc trò chuyện ngắn tiếp theo sẽ giúp bạn xác nhận đó có phải là người thân của bạn hay không.
Bất kỳ cuộc gọi, email, hoặc tin nhắn đến từ số điện thoại, địa chỉ email, hoặc tài khoản không rõ ràng đều phải "bật chế độ nghi ngờ". Thêm vào đó, hãy liên hệ trực tiếp với người thân của bạn theo cách thông thường. Qua đó, bạn có thể chắc chắn rằng người thân của mình đang ổn và cuộc gọi vừa rồi chỉ là lừa đảo mạo danh.
Cuối cùng, hãy lưu lại tin nhắn/cuộc gọi đáng ngờ để kiểm tra lại sau khi cân nhắc kỹ. Dù công nghệ sao chép giọng nói đang ngày càng phát triển, nhưng con người vẫn có thể sử dụng trí thông minh và sự cảnh giác để bảo vệ bản thân khỏi những kẻ lừa đảo.
Cá nhân hóa thư rác: Mối đe dọa từ AI
Bất kỳ ai có thể đều từng nhận được thư rác. Nhưng sự trỗi dậy của công nghệ AI tạo văn bản đang giúp cho việc gửi email mang tính "cá nhân hoá" trở nên dễ dàng hơn bao giờ hết.
Những vụ rò rỉ hay vi phạm dữ liệu cá nhân về quyền riêng tư khiến nhiều thông tin bị lộ trên môi trường mạng. Điều này, khiến việc gửi email lừa đảo bằng công nghệ AI trở nên phổ biến hơn.
Các email lừa đảo kiểu "Nhấp vào đây để xem hóa đơn!" với các tệp đính kèm nhiễm vi rút là một hành vi lừa đảo hết sức thông dụng. Tuy nhiên, nhờ có sự giúp sức của AI như việc bổ sung thông tin bối cảnh, dữ liệu cá nhân, những email này đột nhiên trở nên đáng tin với thông tin chính xác và đầy đủ về các địa điểm, giao dịch mua bán và thói quen gần đây của bạn. Chỉ cần rò rỉ những thông tin này, một mô hình ngôn ngữ lớn có thể tùy chỉnh "cá nhân hoá" email cho hàng nghìn người nhận chỉ trong vài giây.
Một ví dụ trực quan và sinh động sau đây sẽ giúp bạn dễ dàng hình dung về cách thức lừa đảo công nghệ tinh vi này:
Trước đây, một email rác có tính lừa đảo đơn giản chỉ là: "Kính gửi Quý khách hàng, vui lòng xem hóa đơn đính kèm" giờ đây, dưới sự trợ giúp của AI, có thể trở thành "Xin chào Mrs. Hương! Tôi là nhân viên bán hàng của Etsy. Một mặt hàng bạn đã xem gần đây hiện đang được giảm giá 50%. Và chi phí vận chuyển đến địa chỉ của bạn ở Hà Nội đang được miễn phí. Hãy nhấp vào liên kết này để được giảm giá ngay."
Một ví dụ đơn giản, nhưng đủ để thấy sự khác biệt. Với tên thật, thói quen mua sắm (dễ tìm hiểu), vị trí chung (tương tự), v.v., đột nhiên email trở nên rõ ràng hơn rất nhiều dù đây chỉ là thư rác.
Những kẻ lừa đảo có thể thực hiện phương thức lừa đảo thư rác này ở quy mô lớn bằng cách sử dụng một mô hình ngôn ngữ lớn (LLM) với kỹ năng văn xuôi tốt hơn cả nhà văn chuyên nghiệp.
Vậy, làm thế nào để bạn có thể chống lại những thư rác lừa đảo? Đừng mong đợi phát hiện và phân biệt văn bản được tạo ra từ AI so với văn bản do con người viết. Trước hết, tinh thần cảnh giác cao độ chính là vũ khí tốt nhất của bạn. Đây là sự khác biệt lớn nhất giữa người thật và AI. AI không có cảm giác và cảm xúc. Như thường lệ, trừ khi bạn chắc chắn 100% về tính xác thực và danh tính của người gửi, đừng nhấp hoặc mở bất kỳ thứ gì. Hãy xóa email đó hoặc gửi nó đến một bộ phận kiểm duyệt chuyên nghiệp để giúp những người dùng khác có thêm kiến thức chống lại lừa đảo thư rác.
"Làm giả bạn" - Mối nguy hiểm mới trong xác minh danh tính
Với sự phổ biến của việc rò rỉ dữ liệu, thông tin cá nhân của chúng ta đang trôi nổi trên những web đen. Dù bạn đã thay đổi mật khẩu, bật xác thực đa yếu tố,... thì AI vẫn đang tạo ra cho chúng ta một mối đe dọa mới. AI có thể xây dựng một nhân vật ảo có giọng nói giống bạn, sử dụng thông tin cá nhân của bạn để vượt qua các bước bảo mật đòi hỏi xác minh danh tính.
Nếu bạn bị mất điện thoại, cần hỗ trợ khôi phục tài khoản nhưng không thể xác minh danh tính, kẻ gian có thể sử dụng AI để "giả mạo" bạn, gọi đến trung tâm dịch vụ khách hàng, ngân hàng, nơi làm việc và cung cấp thông tin cá nhân của bạn để nhận quyền truy cập vào tài khoản. Điều đáng lo ngại là loại tấn công này có thể được thực hiện trên diện rộng với chi phí thấp, tạo ra hàng loạt "bản sao" tự động gọi đến các địa chỉ riêng tư của bạn, khai thác các tài khoản hoặc thậm chí tạo tài khoản mới. Chỉ cần một số ít thành công, kẻ gian đã có thể thu lợi lớn từ cuộc tấn công này. Vì vậy, việc nâng cao cảnh giác và tìm hiểu về các mối nguy hiểm từ AI là điều cần thiết để bảo vệ thông tin cá nhân của chúng ta.
Hãy sử dụng xác thực đa yếu tố (MFA) cho tất cả các tài khoản quan trọng của mình. Đây là cách đơn giản nhất để bảo vệ tài khoản của bạn. Khi bạn bật MFA, mọi thao tác quan trọng liên quan đến tài khoản của bạn sẽ được gửi đến điện thoại của bạn. Ví dụ, nếu bạn muốn thay đổi mật khẩu hoặc những đơn hàng có giá trị lớn, bạn sẽ nhận được một tin nhắn xác thực trên điện thoại của mình. Hãy cẩn thận với các thông báo liên quan đến tài khoản của bạn. Nếu bạn nhận được email về một lần đăng nhập đáng ngờ hoặc nỗ lực thay đổi mật khẩu, đừng bỏ qua nó hoặc đánh dấu nó là thư rác. Hãy kiểm tra kỹ và hành động ngay nếu cần. Hãy nhớ, MFA là một lớp bảo mật quan trọng. Hãy tận dụng nó để bảo vệ tài khoản của bạn.
Trong thế giới kỹ thuật số ngày nay, bảo mật thông tin cá nhân là điều vô cùng quan trọng. Kẻ gian luôn tìm cách khai thác lỗ hổng để đánh cắp thông tin và lợi dụng chúng cho mục đích bất chính. Hãy chủ động bảo vệ bản thân bằng cách nâng cao nhận thức về các mối nguy hiểm tiềm ẩn, áp dụng các biện pháp bảo mật và cảnh giác với những thông tin đáng ngờ. Hãy nhớ rằng, mỗi hành động nhỏ của chúng ta đều góp phần bảo vệ thông tin cá nhân và bảo mật an toàn cho cuộc sống trực tuyến của mình.
Link nội dung: https://congdankhuyenhoc.vn/mat-trai-cua-ai-va-nhung-chieu-lua-dao-cong-nghe-moi-179240702160617645.htm