BlockBeats Tin tức, ngày 14 tháng 1, theo Forbes đưa tin, các vụ lừa đảo tiền điện tử năm 2025 đã trở thành một ngành tội phạm khổng lồ với quy mô ít nhất 14 tỷ USD/năm, chủ yếu nhờ vào sự phổ biến của các công cụ AI, giúp các kẻ lừa đảo tạo ra danh tính giả một cách hiệu quả hơn, tạo ra nội dung lừa đảo giả mạo sâu hơn và thuyết phục hơn, dẫn đến lợi nhuận trung bình từ mỗi vụ lừa đảo tăng đáng kể. Theo thống kê, các nhóm sử dụng công cụ trí tuệ nhân tạo trung bình có thể lừa đảo thành công 3,2 triệu USD mỗi lần từ nạn nhân, trong khi các nhóm không sử dụng AI trung bình chỉ lừa đảo được 719.000 USD mỗi lần, phần thiệt hại của nhóm sử dụng AI gấp 4,5 lần so với nhóm không dùng AI.
Trong các vụ lừa đảo phổ biến năm 2025 như “kế hoạch lừa đảo” (杀猪盘), các nhóm tội phạm đầu tiên xây dựng “kết nối cảm xúc” hoặc tạo hình ảnh “người hướng dẫn đầu tư” trên các nền tảng mạng xã hội, sau đó dụ dỗ nạn nhân vào các nền tảng giao dịch tiền điện tử giả mạo, cuối cùng lấy đi toàn bộ số tiền. AI giúp các vụ lừa đảo “kế hoạch lừa đảo” trở nên quy mô hơn, cá nhân hóa hơn, tỷ lệ thành công và số tiền liên quan đều tăng rõ rệt.
Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
Việc phổ biến các công cụ AI thúc đẩy quy mô các vụ lừa đảo tiền mã hóa tăng lên, phương thức lừa đảo ngày càng quy mô hóa và cá nhân hóa
BlockBeats Tin tức, ngày 14 tháng 1, theo Forbes đưa tin, các vụ lừa đảo tiền điện tử năm 2025 đã trở thành một ngành tội phạm khổng lồ với quy mô ít nhất 14 tỷ USD/năm, chủ yếu nhờ vào sự phổ biến của các công cụ AI, giúp các kẻ lừa đảo tạo ra danh tính giả một cách hiệu quả hơn, tạo ra nội dung lừa đảo giả mạo sâu hơn và thuyết phục hơn, dẫn đến lợi nhuận trung bình từ mỗi vụ lừa đảo tăng đáng kể. Theo thống kê, các nhóm sử dụng công cụ trí tuệ nhân tạo trung bình có thể lừa đảo thành công 3,2 triệu USD mỗi lần từ nạn nhân, trong khi các nhóm không sử dụng AI trung bình chỉ lừa đảo được 719.000 USD mỗi lần, phần thiệt hại của nhóm sử dụng AI gấp 4,5 lần so với nhóm không dùng AI.
Trong các vụ lừa đảo phổ biến năm 2025 như “kế hoạch lừa đảo” (杀猪盘), các nhóm tội phạm đầu tiên xây dựng “kết nối cảm xúc” hoặc tạo hình ảnh “người hướng dẫn đầu tư” trên các nền tảng mạng xã hội, sau đó dụ dỗ nạn nhân vào các nền tảng giao dịch tiền điện tử giả mạo, cuối cùng lấy đi toàn bộ số tiền. AI giúp các vụ lừa đảo “kế hoạch lừa đảo” trở nên quy mô hơn, cá nhân hóa hơn, tỷ lệ thành công và số tiền liên quan đều tăng rõ rệt.