Bộ phim “người lớn” bắt đầu với cảnh một cô gái mặc áo hồng hở vai, ngồi trên giường và nở nụ cười. Mọi thứ đều giống như một kịch bản quen thuộc, chỉ trừ một điểm: gương mặt kia không phải là của diễn viên. Nó thực chất thuộc về một người phụ nữ hơn 40 tuổi, người chưa từng quay những khung hình này hay nghĩ nó có thể tồn tại cho đến khi bị phát tán trên mạng
Cựu tổng thống Mỹ như Barack Obama nói “Donald Trump là một kẻ ngốc” trước hàng triệu người trên sóng truyền hình.
Mark Zuckerberg đi khoe khoang “Tôi đang toàn quyền kiểm soát dữ liệu của hàng tỷ người dùng trên toàn cầu.”
Cựu tổng thống Obama, CEO của Facebook Mark Zuckerberg, và cả người phụ nữ nói trên là nạn nhân của deepfake – công nghệ ghép khuôn mặt vào video bằng cách ứng dụng trí tuệ nhân tạo.
Cách đây 30 năm, Photoshop xuất hiện và làm thay đổi hoàn toàn cách con người tiếp nhận tin tức. Những hình ảnh bạn thấy có thể là sản phẩm của một quá trình được cắt ghép kỳ công. Người dùng Internet bắt đầu hoài nghi vào độ chính xác của hình ảnh. Họ đặt niềm tin nhiều hơn vào video, ghi âm vì đây là những thứ gần như không thể giả mạo.
Deepfake xuất hiện và “đâm thủng” thành trì tiếp theo của thế giới Internet. “Bạn có thể ‘đưa’ bất kỳ chính khách nào tới đâu, làm bất cứ điều gì. Kể cả khi video đó là giả mạo, được tạo ra để phá huỷ cuộc sống của bất cứ ai”, đại diện giấu tên của Deepfake Society, một website thuần giải trí về những clip ghép mặt chia sẻ.
Deepfake chính là ví dụ rõ ràng nhất cho thấy một công cụ mạnh mẽ như AI có thể gây hậu quả lớn như thế nào khi được dùng sai cách. Cũng giống như người phụ nữ bị ghép mặt vào clip nóng kia, bạn có thể là một nạn nhân tiếp theo của công nghệ làm giả siêu thật này.
Deepfake là gì?
Quay lại năm 2013, khi Paul Walker, nam diễn viên của loạt phim Fast and Furious bất ngờ qua đời trong khi Furious 7 vẫn chưa quay xong. Đoàn phim đã phải mời Cody Walker – em trai của Paul, để đóng thế. Vì có những điểm tương đồng ở nét mặt nên họ có thể dễ dàng hậu kỳ làm cho Cody trông giống hệt anh trai mình. Ngày ra rạp, bộ phim khiến hàng triệu người hâm mộ trên thế giới không khỏi ngỡ ngàng về độ chân thật. Đây là hình thức sơ khai nhất của deepfake.
Vào tháng 7/2017, nhóm nghiên cứu tại đại học Washington trở nên nổi tiếng khi công bố clip ghép mặt của Cựu Tổng thống Mỹ Barack Obama với giọng đọc của một người khác.
Khái niệm “deepfake” lần đầu xuất hiện vào năm 2017 khi một người dùng có tên “deepfakes” đăng tải các đoạn phim “nhạy cảm” đã được chỉnh sửa lên trên diễn đàn Reddit. Những đoạn phim này hoán đổi khuôn mặt của những ngôi sao nổi tiếng như Gal Gadot, Taylor Swift, Scarlett Johansson cho những diễn viên khiêu dâm. Những video với khuôn mặt ghép rất giống này lập tức gây nên làn sóng phản đối.
Deepfake (kết hợp của “deep learning” và “fake”) đề cập đến các video bị thao túng, hoặc các sản phẩm công nghệ được tạo ra bởi Trí tuệ nhân tạo tinh vi nhằm tạo ra các hình ảnh và âm thanh bịa đặt nhưng trông hết sức giống thật. Công nghệ này được xây dựng trên nền tảng machine learning mã nguồn mở của Google.
Quá trình “học” chính là đóng góp mấu chốt của trí tuệ nhân tạo. Mọi sản phẩm sử dụng trí tuệ nhân tạo đều trải qua hai bước chính: nạp dữ liệu đầu vào, sau đó dựng lên mô hình và lựa chọn một thuật toán để liên tục xử lý, học từ các mô hình đó.
Deepfake sẽ quét video và ảnh chân dung của một người sau đó hợp nhất với video riêng biệt nhờ AI và thay thế các chi tiết trên gương mặt như mắt, miệng, mũi với chuyển động gương mặt, giọng nói như thật. Càng có nhiều hình ảnh gốc thì AI càng có nhiều dữ liệu để học. Deepfake có thể gán khuôn mặt của người này sang người khác trong video với độ chân thực đến kinh ngạc.
“Bóng ma của Internet” – Ai cũng có thể là nạn nhân
Theo thống kê của Deeptrace, công ty có trụ sở tại Amsterdam chuyên nghiên cứu về những nội dung được tạo ra bởi AI, 96% video deepfake có nội dung đồi truỵ. Hầu hết nạn nhân là ca sĩ, diễn viên nữ nổi tiếng bị ghép mặt vào các bộ phim khiêu dâm.
Vào tháng 4/2018, Rana Ayyub – một nhà báo điều tra tại Ấn Độ, được báo tin về video khiêu dâm ghép mặt của cô vào cơ thể một phụ nữ khác. Khi cô biết được điều này, video đã được chia sẻ hàng ngàn lần trên Facebook, Twitter, WhatsApp. Ayyub, 34 tuổi trước đó đã từng đối mặt với rất nhiều lời dọa nạt, tấn công trên mạng, nhưng lần này thì mọi chuyện dường như khác hẳn.
“Đoạn phim đã thực sự đánh gục tôi. Điều duy nhất tôi cảm thấy là phải chăng đây là hình ảnh mà mọi người nghĩ về tôi. Nó còn đáng sợ hơn nhiều so với một lời đe dọa đánh đập. Nó khiến cho tôi bị ảnh hưởng mãi về sau. Chẳng có gì có thể ngăn cản chúng xảy ra thêm một lần nữa.” Ayyub chia sẻ.
Với đàn ông, hầu hết video là những trò đùa, như khi diễn viên Nicolas Cage được ghép vào một bài phát biểu của Tổng thống Mỹ Donald Trump. Tuy nhiên với phụ nữ, đó là những vụ tấn công. Adam Dodge, giám đốc của một đơn vị chuyên giải quyết các vụ bạo hành gia đình tại California cho rằng deepfake có thể trở thành một công cụ để những kẻ bạo hành tấn công vợ của mình.
Nguy hiểm hơn những video giải trí, deepfake còn được dùng để lừa đảo, thao túng thị trường. Tháng 3 năm nay, một nhóm tội phạm đã dùng AI nhái giọng CEO một công ty có trụ sở Đức để gọi điện cho Giám đốc chi nhánh ở Anh, đề nghị người này chuyển khoản cho nhà cung ứng ở Hungary trong vòng một giờ, sau đó tiền sẽ sớm được hoàn lại. Người này nhận ra giọng nói quen thuộc của “sếp” nên không hề nghi ngờ.
Không dừng lại ở những video khiêu dâm giả, deepfake đang trở thành “bóng ma” trong thế giới Internet, khiến mọi người phải khiếp sợ. Hãy tưởng tượng vào những ngày đầu tháng 11/2020, khi cuộc bầu cử Tổng thống Mỹ đang đến giai đoạn nước rút. Một ứng viên Tổng thống xuất hiện trên mạng xã hội với những lời lẽ cực đoan về phân biệt chủng tộc hoặc giới tính khiến cử tri phẫn nộ. Mặc dù video là giả, nó sẽ ngay lập tức hạ bệ bất kỳ chính trị gia nào.
Thêm vào đó, lượng người truy cập ngày càng lớn gióng lên hồi chuông đáng báo động về nhu cầu của người dùng Internet với công nghệ này. “Chúng tôi phát hiện ra bốn trang web khiêu dâm hàng đầu chuyên đăng tải các video deepfake có tổng lượt xem lên tới 134 triệu.” CEO Deeptrace, ông Giorgio Patrini nói.
Vì tính ẩn danh của những diễn đàn, các chuyên gia pháp luật cho rằng rất khó tìm kiếm được kẻ tấn công. Việc giới hạn bằng công cụ cũng không đơn giản. Dữ liệu là những bức ảnh mà người dùng công khai trên mạng. Những thuật toán mã nguồn mở được các công ty cung cấp cho những nhà nghiên cứu, sinh viên và tất cả những ai quan tâm đến công nghệ máy học.
Vậy deepfake có hoàn toàn xấu?
Câu trả lời là Không. Deepfake mô phỏng âm thanh có thể giúp khôi phục giọng nói của người khác khi họ bị mất giọng vì bệnh tật. Nhân bản giọng nói còn có thể hỗ trợ giáo dục bằng cách tái tạo âm thanh của các nhân vật lịch sử, như CereProc tạo ra một phiên bản bài diễn văn cuối cùng của cựu Tổng thống Mỹ John F. Kennedy, người đã bị ám sát năm 1963.
Video deepfake có thể giúp làm sinh động các phòng trưng bày và bảo tàng. Đối với ngành công nghiệp giải trí, công nghệ có thể được sử dụng để cải thiện việc lồng tiếng cho các bộ phim tiếng nước ngoài, v.v. Deepfake không hẳn lúc nào cũng xấu, nếu con người biết cách khai thác, chúng ta sẽ tạo nên rất nhiều tác phẩm tuyệt vời từ deepfake.
Thế giới đối mặt thế nào với deepfake
Vài người nhìn vào mặt tích cực và cho rằng deepfake có thể đem lại những thước phim hài hước. Tuy nhiên phần đông lại tỏ ra lo sợ trước “bóng ma” này. Hiện chưa có đạo luật rõ ràng và triệt để về việc ngăn chặn, xử phạt nội dung deepfake. Tại Mỹ, thống đốc bang California đã thông qua đạo luật cấm deepfake vào đầu tháng 10. Tuy nhiên điều này vẫn còn gây tranh cãi vì nó có thể ảnh hưởng đến quyền tự do ngôn luận.
Sớm nhận ra được nguy cơ và những tác động to lớn của deepfake đối với xã hội, Reddit và Facebook đã cấm đăng tải những video kiểu này. Twitter và các trang như Pornhub, Discord, Gfycat đã gỡ bỏ các nội dung ứng dụng công nghệ này nhưng chưa thật sự hiệu quả. Google cũng đã có những động thái tích cực hơn trong việc chống lại deepfake. Hãng đã hợp tác và trả tiền cho nhiều diễn viên để ghi lại hàng trăm video, sau đó sử dụng các công cụ tái tạo hình ảnh deepfake. Bộ dữ liệu của Google có tới 3.000 video giả mạo để hỗ trợ các nhà nghiên cứu tìm cách ngăn chặn vấn nạn chỉnh sửa hình ảnh nhờ AI.
Ở Việt Nam, deepfake bắt đầu được cộng đồng quan tâm vì những nguy cơ tiềm tàng. Tại hội thảo Tech Talks do VnExpress tổ chức từ 13h đến 18h ngày 8/1 tại khách sạn White Palace (TP HCM), các chuyên gia công nghệ nổi tiếng, như CEO Bkav Nguyễn Tử Quảng, CEO Microsoft Phạm Thế Trường… sẽ chia sẻ góc nhìn về deepfake cũng như cảnh báo nguy cơ bảo mật và cách hạn chế rủi ro trong kỷ nguyên kết nối.
Làm thế nào để phát hiện ra một video deepfake?
Khi công nghệ ngày càng phát triển, sẽ vô cùng khó khăn để phát hiện ra đâu là một video giả mạo. Vào năm 2018, các nhà nghiên cứu Mỹ phát hiện ra rằng những khuôn mặt trên deepfake không thể chớp mắt như bình thường. Không có gì ngạc nhiên ở đây cả: phần lớn các hình ảnh cho thấy mọi người mở to mắt, vì vậy các thuật toán không bao giờ thực sự “học” về việc chớp mắt.
Các nhà nghiên cứu cũng đã giới thiệu một công cụ cho phép nhận diện các video deepfake. Công cụ này còn có thể phân tích được những chi tiết mà mắt người không thể nhận ra, như phân tích phổ hoặc ánh sáng của bức ảnh để nhận ra vị trí khác biệt. Tuy nhiên, các nhà khoa học phát minh ra công cụ này thừa nhận họ vẫn phải liên tục phát triển để chạy đua với những kỹ thuật làm giả mới nhất.
Deepfake chất lượng kém dễ dàng bị phát hiện. Đồng bộ chất lượng môi xấu, hoặc màu da loang lổ có thể giúp nhận ra đâu là video giả. Các chi tiết như tóc đặc biệt khó để deepfake có thể “render” một cách mượt mà. Đồ trang sức hay răng làm ẩu cũng là một điểm cần chú ý. Đặc biệt, các clip deepfake có thể xuất hiện những hiệu ứng ánh sáng kỳ lạ như: nguồn sáng không nhất quán, phản chiếu sai lệch trên mống mắt và các mảng đổ bóng… Đây là một trong những căn cứ quan trọng để phân biệt một video thật và một sản phẩm được dàn dựng bởi công nghệ AI.
Kết
Việc áp dụng các khái niệm AI để tạo ra ý tưởng mới và sản phẩm mới quả là một điều thú vị, nhưng chúng ta cần cảnh giác với nó. Trong thực tế, không nên xuất bản bất kỳ một video giả mạo nào chỉ đề mục đích giải trí. Nó có thể khiến chúng ta gặp những rắc rối pháp lý và ảnh hưởng đến danh tiếng của bản thân. Deepfake mang trong mình cả những mặt tích cực và tiêu cực. Hãy là một người khôn ngoan, tỉnh táo để lựa chọn con đường đúng đắn.
Theo: csoonline.com, npr.org
Thảo luận về bài viết