Chia sẻ

Tre Làng

Chiêu lừa khiến nhiều người điêu đứng, Công an TP HCM cảnh báo

Kẻ gian âm thầm thu thập hình ảnh, clip có khuôn mặt của nạn nhân rồi dùng công nghệ cắt ghép thành clip "nhạy cảm" để tống tiền

Vừa qua, Công an TP HCM cho biết nhận được đơn tố cáo của một nạn nhân về việc bị kẻ gian dùng công nghệ cao cắt ghép clip "nhạy cảm" tống tiền hơn 2 tỉ đồng.

Sử dụng trí tuệ nhân tạo

Các đối tượng lừa đảo đã thu thập hình ảnh, thông tin đăng tải trên các trang mạng xã hội, tài khoản mạng xã hội của nạn nhân. Sau khi có hình ảnh nạn nhân, kẻ gian sử dụng trí tuệ nhân tạo (AI) và hàng loạt ứng dụng chỉnh sửa để tạo ra những clip nhạy cảm với động tác khớp với khuôn mặt của nạn nhân đang ở nhà nghỉ, khách sạn.

Khi có được hình ảnh đã chỉnh sửa, các đối tượng lừa đảo giả danh là thám tử tư gọi điện thoại thông báo về việc đối tượng phát hiện nạn nhân có mối quan hệ bất chính với những người phụ nữ khác và yêu cầu chuyển tiền. Nếu không thực hiện, nạn nhân sẽ bị đăng clip, hình ảnh lên mạng xã hội, gửi tới các nơi làm việc; còn thực hiện theo yêu cầu sẽ được chuộc lại các clip và hình ảnh nhạy cảm. Bằng thủ đoạn này, nạn nhân kể trên bị yêu cầu chuyển khoản tiền điện tử (USDT) với giá trị 80.000 USDT (tương đương hơn 2 tỉ đồng) vào ví điện tử.

Một clip sex được cắt ghép, chỉnh sửa bằng công nghệ Deepfake. Ảnh: HẠNH NGUYÊN

Với đơn tố cáo này, Công an TP HCM đã chỉ đạo lực lượng khẩn trương điều tra, truy xét các đối tượng để xử lý nghiêm theo quy định của pháp luật.

Trước đó, doanh nhân H.H cũng đã có đơn gửi các cơ quan chức năng nhờ can thiệp về một vụ việc nghiêm trọng. Theo đó, băng nhóm lừa đảo đã dùng hình ảnh để tạo clip sex bằng công nghệ Deepfake sau đó tống tiền. Tương tự, nữ ca sĩ P.M.C cũng có đơn cầu cứu về một clip xôn xao trên mạng xã hội bằng thủ đoạn chỉnh sửa, cắt ghép khuôn mặt cô đưa vào clip. Sự việc khiến nữ ca sĩ "mất ăn mất ngủ" vì lo sợ ảnh hưởng đến danh tiếng cũng như các hợp đồng truyền thông.

Nâng cao cảnh giác

Theo Công an TP HCM, thời gian gần đây, các đối tượng lừa đảo trên không gian mạng đã không ngừng xây dựng những kịch bản mới đánh vào tâm lý, nhu cầu, lòng tham của bị hại. Thủ đoạn dùng hình ảnh, thông tin cá nhân rồi dùng công nghệ Deepfake để tạo clip nhạy cảm là 1 trong 16 chiêu trò lừa đảo công nghệ cao đang thịnh hành hiện nay.

Trước tình hình trên, Công an TP HCM khuyến cáo người dân khi gặp các trường hợp tương tự phải nâng cao tinh thần cảnh giác với phương châm "Không hoảng sợ - Không làm theo yêu cầu chuyển tiền của đối tượng".

Đồng thời, nạn nhân liên hệ ngay với cơ quan công an gần nhất hoặc bộ phận trực ban Công an TP HCM (điện thoại 069.3187.344) hoặc trực ban Phòng Cảnh sát hình sự (điện thoại 069.3187.200) để cung cấp thông tin, phối hợp cơ quan công an nhanh chóng điều tra, xử lý.

Công an TP HCM khuyến cáo về bản chất, các thủ đoạn không mới, đối tượng chỉ thay đổi "câu chuyện lừa đảo" nhưng nhiều người vẫn bị dẫn dụ và thực hiện theo yêu cầu. "Dù dưới bất kỳ hình thức nào thì mục đích cuối cùng của chúng là lừa chuyển tiền để chiếm đoạt tài sản của nạn nhân. Người dân không cung cấp số tài khoản, thẻ tín dụng, thông tin cá nhân cho bất kỳ ai, không chuyển tiền dưới bất kỳ hình thức nào khi chưa làm việc trực tiếp với cơ quan chức năng" - Công an TP HCM khuyến cáo.

Thời gian qua, Trung tâm Xử lý tin giả, thông tin xấu độc Việt Nam (VAFC) nhận được nhiều đơn cầu cứu của người dân về việc bị bôi nhọ, đe dọa bằng clip sex sử dụng công nghệ Deepfake.

Mặc dù tạo ra các sản phẩm có độ chân thật cao nhưng VAFC cũng chỉ ra một số đặc điểm để phân biệt sản phẩm Deepfake. Cụ thể, các chi tiết trên khuôn mặt hoặc giọng nói không tự nhiên; video, hình ảnh hoặc âm thanh có thể có các điểm bất thường như ánh sáng, bóng đổ, màu sắc không tự nhiên; không phù hợp với tính cách, hành vi của người trong video.

VAFC khuyến cáo: "Người dân cần thường xuyên cập nhật các kiến thức về công nghệ, đặc biệt là các kiến thức về Deepfake để có thể nhận biết và phòng tránh các thủ đoạn lừa đảo bằng công nghệ này".

Những việc cần làm ngay

Theo Công an TP HCM thông tin thêm, khi nhận được cuộc gọi hù dọa, cuộc gọi tống tiền bằng clip sex, việc cần làm là tắt máy, chặn liên lạc và không được cung cấp thông tin cá nhân hoặc thông tin của người thân. Bên cạnh đó, không làm theo hướng dẫn, không nhấp vào đường link lạ, không cài ứng dụng, không đăng nhập các ứng dụng lạ. Bởi vì, khi người dân đăng nhập các phần mềm thì chúng đánh cắp thông tin, dẫn dụ, đe dọa cung cấp thông tin cá nhân, thông tin tài khoản ngân hàng, chuyển tiền, góp vốn đầu tư..., từ đó chiếm đoạt tài sản.

Trước thực trạng nhiều người nổi tiếng, doanh nhân, người có địa vị bị tung clip nhạy cảm bằng công nghệ Deepfake, VAFC khuyến cáo người dân cần cẩn trọng với các thông tin được chia sẻ trên mạng xã hội.

Nguồn: Phạm Dũng/báo Người Lao động

10 nhận xét:

  1. Công nghệ ngày càng phát triển cũng kéo theo nhiều rủi ro hơn đối với người dùng. Deepfake là một mối nguy hại khôn lường, vì nó có thể giả mặt, giả giọng giống người thật vậy. Việc lộ lọt thông tin cá nhân cũng như lộ mặt trên các mạng xã hội là cơ hội lớn cho các đối tượng xấu tthực hiện ý đồ xấu. Mọi người cần lưu ý và cảnh giác hơn nữa

    Trả lờiXóa
    Trả lời
    1. Nếu công nghệ này được phủ sóng thì sẽ hình thành một thế hệ tội phạm mới lấy việc làm giả làm công cụ kiếm sống để tống tiền bất cứ người nào mà chúng nhắm đến từ việc làm các clip nóng cho đến cắt ghép các hành vi phạm tội khác

      Xóa
  2. công nghệ thông tin bây giờ cái gì cũng có thể làm được hết, biến không thành có, người khác mà nó cũng ghép mặt vào được thì có gì mà không làm được, mà nhìn thấy video như thế thì ai mà chả tin, đúng là oan gia, phải điều tra để ngăn chặn ngay những đối tượng này

    Trả lờiXóa
    Trả lời
    1. đúng vậy bác ạ ! khoa học công nghệ phát triển phát triển là con dao hai lưỡi. Nếu nó bị lợi dụng bởi các đối tượng xấu như trên thì sẽ có rất nhiều cá nhân trong xã hội bị ảnh hưởng. Điều quan trọng là phải biết ứng dụng nó một cách hợp lý, đúng pháp luật

      Xóa
    2. Giờ lên mạng thấy cái cờ nhíp thì cũng đừng vội tin ngay vì đó có thể là sản phẩm của cắt ghép cũng như có còm ment không ưng ý thì đừng vôi vào tranh luận lấy để vì có khi bạn đang chat với một con AI chứ chẳng có con người nào ở đây cả

      Xóa
  3. tội này có thể đưa vào tội vu khống người khác, chịu trách nhiệm hình sự, chứ không thể nhắm mắt cho qua, nếu chỉ phạt hành chính thì phải phạt thật nặng, để làm gương cho những đối tượng khác không đi vào vết xe đổ, vì thù oán cá nhân mà đẩy tội cho người khác, chắc chắn sẽ phải trả giá

    Trả lờiXóa
    Trả lời
    1. Tội này có thể được quy vào nhiều tội trong chuỗi hành vi xúc phạm danh dự nhân phẩm của con người, tùy trường hợp mà xử lý chứ vu khống thì nhẹ quá bạn, với đặc điểm là mới xuất hiện nên sẽ rất khó khăn cho cơ quan chức năng trong việc đấu tranh xử lý

      Xóa
  4. bây giờ thời đại công nghệ số đang phát triển một cách vượt bậc. Vì vậy, lợi dụng điều này, các phương thức thủ đoạn phạm tội của các đối tượng xấu ngày càng tinh vi và xảo quyệt hơn bao giờ hết. Người dân ngày càng phải nâng cao nhận thức và cảnh giác hơn trước những hành động này

    Trả lờiXóa
    Trả lời
    1. đúng ! thời đại công nghệ phát triển, các phương thức thủ đoạn phạm tội phát triển thì đòi hỏi cơ quan chức năng cũng cần phải nâng cao chuyên môn nghiệp vụ của mình về vấn đề trên, phải biết ứng dụng khoa học để phòng ngừa, ngăn chặn vấn nạn nêu trên

      Xóa
  5. Ở bên Hàn Quốc còn đang có trào lưu ghép mặt khi mà chỉ cần một hình ảnh nữ sinh nào được đưa lên nhóm kín lập tức sẽ có nhiều kẻ rảnh rỗi cắt ghép vào các thân hình hở hang nóng bỏng, hệ quả làm cho nhiều nữ sinh bị sang chấn tâm lý, gây nguy hại cho sức khỏe cũng như danh dự nhân phẩm của họ

    Trả lờiXóa

Tìm kiếm mở rộng

Google TreLang

Tre Làng

Thông kê truy cập

Lưu trữ Blog