kinh tế du lịch

Công nghệ đáng sợ có thể gây ảnh hưởng nửa sau 2020

kinhtedulichonline.com - Nhiều chuyên gia lo ngại deepfake, công nghệ dùng AI để ghép khuôn mặt vào video sẽ gây ảnh hưởng lớn tới Internet và bầu cử Tổng thống Mỹ cuối năm nay.

Deepfake, thuật ngữ dùng để chỉ kỹ thuật tổng hợp hình ảnh con người dựa trên trí tuệ nhân tạo là thứ vô cùng đáng sợ. Thậm chí, nó có thể làm hỏng một cuộc bầu cử, ngay cả khi các ứng cử viên không bị ghép khuôn mặt bằng deepfake.

Một trong những cách phá hoại bằng deepfake dễ hình dung là tạo ra những video giả, sai sự thật của ứng cử viên. Tuy nhiên, đây không phải là điều mà các chuyên gia lo ngại nhất.

Mối lo ngại lớn nhất

“Nếu bạn hỏi tôi về mối lo ngại chính của cuộc bầu cử tại Mỹ trong năm nay, tôi sẽ trả lời rằng đó không phải là deepfake. Mối nguy lớn nhất là video có thật, mà chúng ta không thể chứng minh nó là thật hay giả”, Kathryn Harrison, người sáng lập DeepTrust Alliance, một tổ chức chuyên nghiên cứu và chống lại deepfake cho biết.

Những người nghiên cứu về deepfake có thuật ngữ Liar’s Dividend, nói về sự ảnh hưởng của niềm tin khi xuất hiện deepfake. Về cơ bản, deepfake sẽ khiến mọi người nghi ngờ chính đôi mắt của mình và có xu hướng cho rằng mọi video xuất hiện đều là giả.

Không chỉ được dùng để ghép video khiêu dâm, deepfake còn mang tới những lo ngại về tin giả trước những thời điểm quan trọng như kỳ bầu cử Tổng thống Mỹ cuối năm 2020. Ảnh: Cnet.

Việc cắt ghép hình ảnh không phải là thứ gì đó mới mẻ. Tuy nhiên, deepfake là một thứ tương đối khác biệt. Các video giả mạo được tạo ra có thể khiến mọi người dường như đang làm hoặc nói những điều mà họ chưa từng làm.

Bobby Chesney, giáo sư luật tại Đại học Texas, người đã đưa ra thuật ngữ Liar"s Dividend cho biết đảng Dân chủ Mỹ đã tổ chức những buổi thảo luận và giáo dục mọi người về những mối nguy hại mà deepfake có thể gây ra.

Dù vậy, mặt trái của việc giáo dục này là nó có khả năng khiến deepfake phát triển rộng hơn, bởi những người mới tìm hiểu về chúng hoàn toàn có thể tin video “xịn” là không có thật.

Công nghệ tạo ra để đánh lừa người xem

Lý do khiến deepfake có thể đánh lừa mọi người bắt nguồn từ công nghệ tạo ra nó, được các chuyên gia gọi là GAN, viết tắt của các mạng lưới đối nghịch chung. Trong khi trí tuệ nhân tạo đã xuất hiện từ nhiều thập kỷ trước, GAN mới chỉ được phát triển trong khoảng 6 năm nay.

Về cơ bản, GAN là quá trình thử - sai - thử lại liên tục để đánh lừa mắt người. Cả bộ tạo tín hiệu và bộ kiểm tra đều là những cỗ máy, cho phép chúng tạo ra cả triệu mẫu thử chỉ trong chớp mắt.

Bằng quá trình thử - sai liên tục, deepfake được thiết kế ra để đánh lừa người xem một cách tinh vi nhất. Đồ hoạ: Hà My.

GAN là các hệ thống được thiết kế để đánh lừa bạn. GAN có thể tạo hình ảnh, giọng nói, video hay bất kỳ loại phương tiện truyền thông nào. Thuật ngữ deepfake được sử dụng thường xuyên nhất với các video.

“Với deepfake đích thực, bạn chắc chắn sẽ không thể nhận ra”, ông Chesney chia sẻ.

Sự ra đời của deepfake đã tạo ra các thuật ngữ mới: Cheapfakes và Shallow fakes. Đây là những loại video giả mạo rất dễ nhận ra, nhưng vẫn vô cùng hiệu quả, khiến nó trở thành mối đe dọa thông tin sai lệch lớn.

Khi mà ngày càng nhiều người dễ dàng tin tưởng các thông tin được chia sẻ trên Facebook hay YouTube , những video đơn giản này lại dễ gây hoạ hơn. Video giả mạo, gây sốc rất dễ phát tán, mang lại nhiều tiền hơn hẳn so với thông tin chính thống trên các nền tảng này.

Những nhà nghiên cứu đã có thể tạo ra video deepfake giống như thật, sử dụng hình ảnh các chính trị gia. Ảnh: Shruti Agarwal

Theo Cnet, hậu quả để lại sẽ là một hệ thống mà video giả mạo được tin tưởng, còn thông tin trung thực và nhàm chán lại bị nghi ngờ.

Để tạo ra những video deepfake thuyết phục tương đối tốn kém. Những video như vậy chỉ được tạo ra và chia sẻ chủ yếu trong giới học thuật. Tuy nhiên, nếu được đưa ra đúng thời điểm, như trước kỳ bầu cử vài ngày, thì chúng có thể để lại ảnh hưởng to lớn.

“Nếu video giả mạo xuất hiện 48 giờ trước ngày bầu cử, chúng ta sẽ không có thời gian sửa chữa hậu quả”, Clint Watts, nhà nghiên cứu chính sách ngoại giao từng điều trần về deepfake trước Quốc hội Mỹ chia sẻ.

Theo Zing

BÌNH LUẬN
XEM NHIỀU
Dưỡng trắng theo phong cách Nhật Bản
Dưỡng trắng theo phong cách Nhật Bản

Xứ Phù Tang nổi tiếng với hình ảnh làn da trắng sứ, mịn màng của thiếu nữ e ấp...

Đưa công nghệ cao vào sản xuất nông nghiệp
Đưa công nghệ cao vào sản xuất nông nghiệp

Với thị trường tiêu thụ lớn, có lợi thế trong sản xuất nông nghiệp ở các huyện ngoại thành, những...

Khi công nghệ là bàn đạp vượt khó
Khi công nghệ là bàn đạp vượt khó

Đẩy mạnh ứng dụng công nghệ thông tin, tổ chức dạy học qua Internet, trên truyền hình lâu nay là...

Công nghệ truy vết Covid-19 mới
Công nghệ truy vết Covid-19 mới

Các nhà khoa học tại ĐH Boston đề xuất giải pháp sử dụng công nghệ truy vết người mắc Covid-19...

Google, Apple hứa bảo mật cho công nghệ truy vết Covid-19
Google, Apple hứa bảo mật cho công nghệ truy vết Covid-19

Giữa những lo ngại về quyền riêng tư liên quan đến các kế hoạch truy tìm liên hệ liên quan...

Những lời khuyên công nghệ khi làm việc từ xa
Những lời khuyên công nghệ khi làm việc từ xa

Đại dịch COVID-19 đang tác động lên mọi mặt cuộc sống hàng ngày của chúng ta, trong đó có cách...

Xe công nghệ rục rịch hoạt động trở lại
Xe công nghệ rục rịch hoạt động trở lại

Sau lệnh giãn cách xã hội, nhiều ứng dụng gọi xe công nghệ đã rục rịch hoạt động trở lại.

Công nghệ hỗ trợ người cao tuổi trong và sau đại dịch
Công nghệ hỗ trợ người cao tuổi trong và sau đại dịch

Theo một nghiên cứu gần đây của IBM, sự cô đơn ảnh hưởng trực tiếp đến sức khỏe cá nhân,...

Vingroup trình làng công nghệ nhận diện khuôn mặt ngay cả khi đeo khẩu trang
Vingroup trình làng công nghệ nhận diện khuôn mặt ngay cả khi đeo khẩu trang

Tập đoàn Vingroup vừa nghiên cứu thành công công nghệ nhận diện khuôn mặt khi dùng khẩu trang.

Nay là lúc chúng ta nhìn nghiêm túc hơn về công nghệ
Nay là lúc chúng ta nhìn nghiêm túc hơn về công nghệ

Hội họp trực tuyến, dạy học trực tuyến, thương mại điện tử..., chúng ta đã nói về cách mạng công...

© 2019 Bản quyền thuộc về Kinh tế Du lịch
® Ghi rõ nguồn Theo Kinhtedulichonline.com khi phát hành thông tin từ website này.

Liên hệ quảng cáo & nội dung: salepr247@gmail.com


Design by
DMCA.com Protection Status