Deepfake là gì và tại sao nó là một mối đe dọa nghiêm trọng?
Deepfake – một kỹ thuật cho phép tổng hợp hình ảnh con người dựa trên trí tuệ nhân tạo thường được sử dụng để tạo, chỉnh sửa, bóp méo, cắt ghép các đoạn phim, ghi âm một cách tinh vi – đã và đang đặt ra những thách thức, mối đe doạ về tính nguyên vẹn của các thông tin trực tuyến. Cùng với khả năng tiếp cận ngày càng gia tăng của công nghệ deepfake và tốc độ của các nền tảng internet, deepfake nhanh chóng trở nên phổ biến và tiếp cận hàng triệu người.
Bên cạnh các giải pháp công nghệ được đề xuất để phát hiện cũng như ngăn chặn tình trạng lan rộng của deepfake, bản thân mỗi người dùng mạng xã hội cũng cần có ý thức bảo vệ thông tin cá nhân của mình.
Giới thiệu về Deepfake
Với sự phát triển mạnh mẽ của công nghệ thông tin, ngày nay mạng xã hội đã lan rộng và phủ sóng toàn cầu. Bên cạnh những lợi ích to lớn mà mạng xã hội mang lại, chúng ta đang đối mặt với nhiều nguy cơ, thách thức không nhỏ, thậm chí đe dọa đến an ninh quốc gia và trật tự an toàn xã hội. Trong đó, phải kể đến những ảnh hưởng tiêu cực từ các thông tin xấu, độc được lan truyền trên mạng xã hội cũng như vấn nạn tin giả – Fake News. Khoảng 30 năm trước, sự xuất hiện của phần mềm chỉnh sửa ảnh Photoshop đã làm thay đổi hoàn toàn cách con người tiếp nhận tin tức khi mà những hình ảnh hoàn toàn có thể là sản phẩm của một quá trình cắt ghép kỳ công. Người dùng Internet bắt đầu hoài nghi vào độ chính xác của hình ảnh, niềm tin vẫn được đặt nhiều hơn vào video, ghi âm vì đây là những thứ gần như không thể giả mạo. Nhưng một lần nữa, Deepfake xuất hiện cho phép tạo và chỉnh sửa, bóp méo, cắt ghép các đoạn phim, ghi âm một cách tinh vi đã và đang đặt ra những thách thức, mối đe doạ về tính nguyên vẹn của các thông tin trực tuyến. Các chuyên gia nhận định rằng: Deepfake khi bị lạm dụng để tạo ra những thông tin giả sẽ gây ra những hậu quả khôn lường. Bất kỳ ai công khai hồ sơ cá nhân lên mạng xã hội đều có thể bị giả mạo và trở thành nạn nhân của deepfake.
Deepfake [1],[2] (là kết hợp của “deep learning” – học sâu và “fake” – giả tạo trong tiếng Anh được xuất hiện công khai trên Internet từ khoảng cuối năm 2017) là một kỹ thuật cho phép tổng hợp hình ảnh con người dựa trên trí tuệ nhân tạo. Nó được sử dụng để kết hợp và đặt chồng lên hình ảnh và video nguồn bằng các sử dụng kỹ thuật học máy (machine learning) được gọi là mạng đối nghịch chung. Nói một cách khác, DeepFake là kỹ thuật tạo ra những video, hình ảnh, giọng nói, âm thanh bằng các phần mềm trí tuệ nhân tạo chỉnh sửa, bóp méo, cắt ghép khiến chúng trông như thật.
Quay lại năm 2013, khi Paul Walker, nam diễn viên của loạt phim Fast and Furious bất ngờ qua đời trong khi tập phim thứ 7 vẫn chưa quay xong. Đoàn phim đã mời Cody Walker, em trai của Paul để đóng thế vì người này có những điểm tương đồng ở nét mặt nên họ có thể dễ dàng hậu kỳ làm cho Cody trông giống hệt anh trai mình. Ngày ra rạp, bộ phim khiến hàng triệu “fan” trên thế giới không khỏi ngỡ ngàng về độ chân thật. Đây là hình thức sơ khai nhất của Deepfake.
Công nghệ này được biết đến rộng rãi khi một người dùng trên mạng xã hội Reddit đã sử dụng nó để hoán đổi gương mặt của người nổi tiếng vào trong các bộ phim người lớn với độ chính xác khá cao mà không mất nhiều công sức. Tuy nhiên, các công cụ này ngày càng phổ biến trong khoảng hai năm nay, đe dọa không chỉ các ngôi sao mà cả người bình thường. Nhiều nhân vật nổi tiếng như cựu tổng thống Mỹ Barack Obama, cựu đệ nhất phu nhân Michelle Obama, nhà sáng lập Facebook Mark Zuckerberg, Tổng thống Donald Trump và Chủ tịch quốc hội Nancy Pelosi đều từng là nạn nhân của DeepFake. Các nhà làm luật và các tổ chức về quyền kỹ thuật số cũng dự đoán DeepFake sẽ gây ra những tác động lớn tới cuộc bầu cử tổng thống Mỹ năm 2020.
Cách thức tạo ra Deepfake
Đầu tiên, video gốc được quét vào và phân tách thành các âm vị (những âm thanh cấu thành nên các từ) được nói bởi “nạn nhân”(người sẽ bị làm giả mạo). Các âm vị này được kết nối với các biểu cảm khuôn mặt tương ứng khi thể hiện mỗi âm vị đó. Tiếp theo, một mô hình 3D của nửa dưới khuôn mặt người nói được tạo ra bằng cách sử dụng video gốc. Khi chỉnh sửa nội dung được văn bản hóa của video, phần mềm sẽ kết hợp tất cả dữ liệu được thu thập này gồm âm vị, hình ảnh và mô hình khuôn mặt 3D để tạo cảnh quay mới phù hợp với nội dung được thêm bớt vào văn bản. Sau đó, phần mềm sẽ dán thành phẩm vào video gốc để tạo nên video cuối cùng. [2]
Trong giai đoạn đầu, công nghệ Deepfake vẫn chưa thực sự hoàn hảo vì các thuật toán chỉ hoạt động trên các video dạng quay chính mặt người nói và cần lượng dữ liệu đầu vào khoảng 40 phút, chất lượng âm thanh khá thấp với nguyên bản, khó có thể thay đổi tâm trạng hoặc giọng điệu của người nói. Ngoài ra, nếu khuôn mặt người nói bị che khuất bất cứ khi nào, như ai đó vẫy tay trong khi nói thì thuật toán sẽ thất bại hoàn toàn. Song những hạn chế này gần như đã được khắc phục. Trong ví dụ mới nhất về công nghệ Deepfake mới được công bố hồi cuối tháng 6/2019, các nhà nghiên cứu đã cho thấy phần mềm mới sử dụng các thuật toán học máy có thể cho phép người dùng chỉnh sửa nội dung đã được văn bản hóa của video để thêm, xóa hoặc thay đổi các từ phát ra từ miệng của người nói trong video.
Sự đóng góp của trí tuệ nhân tạo được sử dụng trong công nghệ deepfake về cơ bản trải qua hai bước: Thu thập dữ liệu huấn luyện (training data) và học mô hình thông qua việc lựa chọn thuật toán để liên tục xử lý, học từ các dữ liệu huấn luyện đó. Trong trường hợp của deepfake, dữ liệu huấn luyện đầu vào là những video có sẵn và hình ảnh của “nạn nhân”, thuật toán học ngày nay được công bố rộng rãi dưới dạng mã nguồn mở của TensorFlow hoặc Keras. Sau một thời gian “học”, cỗ máy đã có thể thực hiện tác vụ ghép khuôn mặt với độ giống cao.
Bên cạnh vấn đề về sự phong phú của dữ liệu và thuật toán đã có sẵn trên mạng, đáng lo ngại hơn là quá trình học, xử lý cũng không cần tới những siêu máy tính. Nhà nghiên cứu về trí tuệ nhân tạo Alex Champandard cho rằng một chiếc máy tính với card đồ họa phổ thông có thể thực hiện quá trình trên chỉ trong vài giờ đồng hồ. Nếu không có card đồ họa, thì vi xử lý trung tâm (CPU) vẫn có thể thực hiện tác vụ với thời gian lâu hơn, lên tới vài ngày.
Việc tạo ra các video giả mạo một cách tinh vi nhưng không quá phức tạp như phân tích ở trên càng chứng tỏ mối nguy hiểm của công nghệ deepfake không chỉ với đời sống của bản thân mỗi “cư dân mạng” nói chung, đặc biệt là những người nổi tiếng, những chính trị gia nói riêng mà còn đe doạ nền an ninh quốc phòng, đời sống kinh tế, chính trị của một đất nước và cần phải có những giải pháp cho vấn đề này.
Các ứng dụng độc hại của deepfake
Video deepfake đầu tiên xuất hiện vào năm 2017, trong đó khuôn mặt của một người nổi tiếng được hoán đổi thành khuôn mặt của một diễn viên khiêu dâm. Kể từ đó, công nghệ này đã được sử dụng để tác động vào dư luận. Nhà báo Rana Ayyub bị tấn công bởi deepfakes khi khuôn mặt của cô ấy đã được biến thành một video khiêu dâm như thể cô ấy đã diễn trong đó. Vụ tấn công thâm độc này xảy ra ngay sau khi cô vận động đòi công lý cho nạn nhân bị hiếp dâm Kathua. Ngoài ra, Deepfakes cũng có thể phục vụ các động cơ cá nhân độc hại. Một người mẹ từ Pennsylvania bị cáo buộc đã sử dụng các video deepfake để cố gắng khiến các đối thủ trong đội cổ vũ của cô con gái tuổi teen của cô ấy bị loại khỏi đội.
Trường hợp của Bộ trưởng Kinh tế Malaysia Azmin Ali là một trường hợp đáng chú ý để xem xét. Năm 2019, Azmin dính vào một vụ bê bối băng sex, trong đó anh ta bị cáo buộc có quan hệ tình ái với một thành viên trong đảng chính trị của anh ta, Haziq Abdul Aziz . Vì “sodomy” (thuật ngữ quan hệ tình dục lệch lạc) là một hình thức tội phạm ở Malaysia, có thể bị phạt tù đến 20 năm, Azmin cố gắng trốn tránh hậu quả bằng cách tuyên bố rằng video là một trò lừa đảo sâu sắc. Mặc dù không ai có thể xác định một cách dứt điểm, nhưng dư luận và các chuyên gia giám định kỹ thuật số vẫn chia làm hai phe. Vì công chúng không thể phân biệt được thông tin nào là thật hay giả, nên họ sẵn sàng chấp nhận những thành kiến đã định trước của mình hơn.
Kết quả là, điều này đã gây ra những hậu quả nghiêm trọng đối với danh tiếng và sự nghiệp chính trị của các bên liên quan. Ngoài ra, điều này đã dẫn đến sự mất ổn định của liên minh quản lý và sự bác bỏ mạnh mẽ các quyền của LGBT ở Malaysia. Theo Towes, deepfakes không chỉ làm xấu đi tình trạng chia rẽ xã hội và phá vỡ diễn ngôn dân chủ, mà còn phá hoại sự an toàn công cộng và làm suy yếu nền báo chí.
Những giải pháp công nghệ phát hiện deepfake
Do đặc điểm của thời đại truyền thông trực tuyến là hình ảnh chất lượng có thể rất thấp và không cần ngữ cảnh cụ thể nhưng vẫn tiếp cận được với người xem. Giống như tin tức giả, rất nhiều nội dung thông tin giả mạo có thể dễ dàng bị lật tẩy chỉ với một vài phút tra cứu trên Google, nhưng điều đó không ngăn chặn sự lan truyền của chúng. Deepfake cũng vậy, các thành phẩm của công nghệ này không cần hoàn hảo từng chi tiết và vẫn có rất nhiều người đón nhận. Bên cạnh đó việc ngăn chặn deepfake gặp rất nhiều khó khăn do tính ẩn danh của những diễn đàn, các chuyên gia pháp luật cho rằng rất khó tìm kiếm được kẻ tấn công; việc giới hạn bằng công cụ cũng không đơn giản. Trong khi đó, dữ liệu là những bức ảnh mà người dùng công khai trên mạng và những thuật toán mã nguồn mở được các công ty cung cấp cho những nhà nghiên cứu, sinh viên và tất cả những ai quan tâm đến công nghệ máy học.
Dựa trên cách thức các video giả mạo được tạo ra, hiện nay đang có hai hướng giải pháp ngăn chặn deepfake được đề xuất là sử dụng các công cụ phát hiện Deepfake có độ chính xác cao và cơ chế xác thực ảnh và video tin tức.
Giải pháp 1: Phát triển công cụ phát hiện video deepfake
Tháng 8/2018, các nhà nghiên cứu tại Trung tâm nghiên cứu thuộc Bộ Quốc phòng Mỹ (DARPA) đã giới thiệu 1 công cụ cho phép nhận diện các video deepfake [3]. Công cụ này còn có thể phân tích được những chi tiết mà mắt người không thể nhận ra, như phân tích phổ hoặc ánh sáng của bức ảnh để nhận ra vị trí khác biệt. Tuy nhiên, các nhà khoa học phát minh ra công cụ này thừa nhận họ vẫn phải liên tục phát triển để chạy đua với những kỹ thuật làm giả mới nhất.
Deepfake [4] sử dụng các mạng nơ-ron để thay thế gương mặt của người trong video gốc thành gương mặt của đối tượng muốn giả mạo. Tuy rằng mạng nơ-ron thực hiện tác vụ này rất hiệu quả, nhưng nó lại không thể hiểu được các đặc điểm vật lý và tự nhiên của một gương mặt người. Chính vì vậy, deepfake có thể bị phát hiện thông qua một số hành vi không tự nhiên – mà trong đó đáng lưu ý nhất là việc không chớp mắt, chuyển động của đầu
Các nhà nhiên cứu tại Đại học California, Riverside, đã phát triển một mô hình AI có thể phát hiện hình ảnh giả mạo bằng cách tập trung vào rìa các sự vật xuất hiện trong ảnh. Thông thường, phần ranh giới giữa hình gốc và các sự vật được ghép vào sẽ mang một số đặc điểm riêng, như độ mượt kém tự nhiên hoặc bị nhòe. Mô hình này được huấn luyện sử dụng một bộ dữ liệu lớn có gắn nhãn giữa hình ảnh đã được và chưa được chỉnh sửa. Qua đó, mạng nơ-ron sẽ có thể tìm ra những quy tắc mẫu, từ đó phân biệt được phần rìa của các vật bị chỉnh sửa trong hình, kể cả với những hình ảnh mới không thuộc bộ dữ liệu. Tuy rằng mô hình này mới chỉ được sử dụng trên ảnh tĩnh, nhưng trong tương lai, nó sẽ sớm khả dụng trên cả video. Về cơ bản, các video deepfake cũng chỉ là một chuỗi hình ảnh chạy liên tục vì vậy cũng có thể bị phát hiện sử dụng cơ chế tương đương.
Tuy nhiên, theo đánh giá hiện nay, công nghệ Deepfake và chống Deepfake đang phát triển theo hướng không khác gì mối quan hệ giữa virus và các phần mềm chống virus. Bất cứ lỗi hay điểm yếu nào được phát hiện có thể giúp việc chống virus hiệu quả hơn, những phiên bản virus sau sẽ “vá” được những lỗi này và còn trở nên tinh vi hơn trước. Như trong trường hợp Deepfake, những phiên bản đầu tiên có thể khiến gương mặt bị chỉnh sửa của nhân vật luôn trong trạng thái mở mắt, hoặc khuôn miệng lúc phát âm không hề tự nhiên. Những phiên bản sau đã nâng cấp và cải thiện những yếu tố này rõ rệt, đến mức khó có thể nhận ra sự khác biệt bằng mắt thường giữa bản gốc và bản chỉnh sửa. Ngay cả khi công nghệ tiếp tục phát triển, các kỹ thuật phát hiện, thường bị tụt hậu so với các phương pháp tạo video deepfake tiên tiến nhất.
Giải pháp 2: Giải pháp xác thực video, ảnh
Hiện nay, đa số những cố gắng phát hiện deepfake đều đang tập trung vào việc tìm ra các bằng chứng giả mạo mà bỏ qua một phương thức vô cùng hiệu quả khác: chứng minh cái gì là sự thật. Đây cũng là phương thức được sử dụng trong dự án Archangel, được thực hiện bởi các nhà nghiên cứu tại Đại học Surrey, UK, và hiện đang được thử nghiệm trên nhiều kho lưu trữ của nhiều quốc gia.
Archangel sử dụng phối hợp các mạng nơ-ron và blockchain, nhằm tạo ra một ổ lưu trữ video thông minh để sử dụng trong quá trình chứng thực sau này. Sau khi một video được thêm vào lưu trữ, Archangel sẽ huấn luyện mạng nơ-ron sử dụng nhiều định dạng khác nhau của video này. Từ đó, mạng nơ-ron sẽ có thể phát hiện xem video mới có tương thích mới video gốc đã được lưu trữ hay không, hay đã trải qua chỉnh sửa.
Trong những kỹ thuật so sánh truyền thống, các tệp tin sẽ được chứng thực trên từng byte – một phương thức không phù hợp với video do đặc điểm cấu trúc thay đổi qua định dạng. Tuy nhiên, mạng nơ-ron của Archangel lại so sánh qua điểm ảnh, tức sử dụng giải mã dữ liệu lập trình (codec-agnostic).
Để đảm bảo rằng các nơ-ron không bị thao túng, Archangel chứa chúng trên một blockchain duy trì bởi các hệ lưu trữ của chính phủ tham gia vào thử nghiệm dự án này. Như vậy, việc thêm dữ liệu vào lưu trữ sẽ cần được sự đồng ý của các bên liên quan. Do đó, không có một tổ chức nào có thể tự quyết định video nào là thật, video nào là giả mạo. Dự kiến, sau khi Archangel được công khai, mọi người đều sẽ có thể thử chứng thực các video của họ trên chương trình này.
Một điểm yếu rõ rệt của phương thức này là mỗi video lại cần một mạng nơ-ron được huấn luyện khác nhau – vô cùng tốn kém về thời gian cũng như năng lượng máy tính cần thiết. Phương thức này đặc biệt phù hợp với các video có nội dung nhạy cảm như các đoạn ghi của Quốc hội và phát biểu của những chính trị gia.
Giải pháp 3: Giải pháp cho người dùng mạng xã hội
Deepfake đang ngày một trở nên tinh vi hơn và ai cũng có thể trở thành nạn nhân của Deepfake, đặc biệt là phụ nữ, người nổi tiếng và chính trị gia. Trong khi các cơ chế bảo vệ bằng pháp luật thực sự chưa đi tới đâu, việc tìm ra kẻ tấn công là ai hết sức khó khăn, bản thân người dùng mạng xã hội hãy là những người dùng thông thái và có những biện pháp tự bảo vệ bản thân.
Khi quyết định tham gia một mạng xã hội hay chia sẻ thông tin cá nhân trên mạng, người dùng phải tìm hiểu được những thông tin và cơ chế sau: Ai có thể truy cập các thông tin mình đưa lên mạng? Ai điều khiển và sở hữu những thông tin mình đưa lên mạng xã hội? Những thông tin nào về bản thânvà các đối tác liên lạc sẽ được chuyển cho những người khác? Liệu các đối tác liên lạc của mình có chia sẻ thông tin của họ cho những người khác không? Mình có tin tưởng mọi người được kết nối trong mạng xã hội không?
Sau đây là một số giải pháp giúp bảo vệ người dùng trên mạng xã hội:
- Sử dụng các mật khẩu bảo mật để truy cập những trang mạng xã hội và tạo thói quen thay đổi mật khẩu một cách định kỳ.
- Hiểu rõ các thiết lập mặc định trong thiết lập bảo mật (privacy settings) của trang mạng xã hội và cách thay đổi chúng.
- Cân nhắc sử dụng thiết lập tách riêng tài khoản/danh tính (separate accounts/identities) hoặc có thể sử dụng các tên giả cho các chiến dịch và hoạt động khác nhau. Vì mấu chốt của việc sử dụng một mạng an toàn là khả năng tin cậy các thành viên trong mạng, việc tách biệt các tài khoản có thể là cách tốt để đảm bảo rằng sự tin tưởng này là có thể thực hiện được.
- Cảnh giác khi truy cập tài khoản mạng xã hội tại các điểm truy cập internet công cộng. Xóa lược sử truy cập và mật khẩu sau khi sử dụng một máy công cộng.
- Sử dụng giao thức bảo mật https mỗi khi truy cập trang mạng xã hội để bảo vệ tên truy cập, mật khẩu và các thông tin đăng tải.
- Cẩn thận với việc đưa quá nhiều thông tin trên cập nhật trạng thái (your status updates) và thiết lập bảo mật riêng tư cho phép những ai có thể xem những thông tin mình chia sẻ.
- Cảnh giác khi tích hợp các trang mạng xã hội vì có thể ẩn danh trên một trang nhưng lại để lộ danh tính trên một trang khác.
- Đăng tải các thông tin cá nhân: Các trang mạng xã hội thường yêu cầu người dùng nhập nhiều thông tin về bản thân để thuận lợi cho các thành viên khác tìm và kết nối với bạn. Có lẽ nguy cơ lớn nhất gây ra cho người dùng các trang mạng này là khả năng bị giả mạo danh tính, thường xảy ra khá phổ biến.
- Bạn bè, bạn đọc và các đối tác liên lạc: Cân nhắc việc chỉ kết bạn với những người bạn biết rõ và tin tưởng sẽ không sử dụng thông tin mình đăng tải vào mục đích xấu.
- Cân nhắc sử dụng tính năng xác định vị trí – định vị toàn cầu GPS, nhiều ứng dụng có thể cung cấp thông tin về vị trí của người dùng.
- Chia sẻ hình ảnh/ đoạn phim: Nhận thức và cân nhắc về việc chia sẻ những bức hình hay đoạn phim có thể dễ dàng tiết lộ danh tính mọi người.
- Nhắn tin trực tuyến: Cân nhắc sử dụng các ứng dụng nhắn tin trực tuyến tích hợp trong mạng xã hội (sử dụng giao thức bảo mật https://).
- Gia nhập/tạo nhóm, sự kiện và cộng đồng: Cân nhắc việc tham gia và chia sẻ thông tin cá nhân trên các nhóm, diễn đàn, sự kiện.
Kết luận
Deepfake ngày càng trở nên tinh vi và có tầm ảnh hưởng rộng rãi không chỉ là một cá nhân hay tổ chức nhỏ mà thậm chí ảnh hưởng đến doanh nghiệp lớn, tạo ra biến động sâu sắc, gây nên những kích động quân sự hay ảnh hưởng đến chính trị. Tại Việt Nam, các thế lực thù địch, chống phá chế độ luôn tìm cách xuyên tạc, nói xấu, chiêu trò phát tán các hình ảnh, video được làm giả hòng làm sai lệch sự thật. Chống lại deepfake là điều không hề đơn giản. Trong khi các ông lớn trong làng công nghệ đang hối hả tìm các giải pháp để phát hiện và giảm thiểu các tác hại do deepfake gây ra thì người dùng cần thông thái trong việc bảo vệ bản thân cũng như nhận định các thông tin trên mạng xã hội. Các cơ quan quản lý cần có pháp lý để phát hiện, ngăn chặn và xử lý các hành vi giả mạo tinh vi này nhằm bảo vệ chủ quyền số trong không gian mạng, bảo vệ người dân trước các “vấn nạn”nhức nhối trong kỷ nguyên số hoá.
Tài liệu tham khảo
[1] Hiểm hoạ của tin giả “bình dân” – Cheapfake. (2021), Bản tin an toàn không gian mạng, Bảo vệ chủ quyền số quốc gia, Cục An toàn thông tin.
[2] Westerlund, Mika. (2019) Tổng quan về sự bùng nổ của công nghệ deepfake. Tạp chí quản lý đổi mới công nghệ 9.11
[3] Cẩm Yến, Internet và cơn ác mộng mang tên Deepfake, số 29 (2019), Báo Thế giới và Việt Nam
[4] Yu P, Xia Z, Fei J, Lu Y. (2021) Khảo sát về kỹ thuật phát hiện giả mạo video deepfake. Tạp chí sinh trắc học – Viện kỹ thuật và công nghệ IEF
[5] Julie Posetti, Cherilyn Ireton, Claire Wardle, Hossein Derakhshan, Alice Matthews, Magda Abu-Fadil, Tom Trewinnard, Fergus Bell, Alexios Mantzarlis. (2018), Báo chí, tin giả và tin xuyên tạc, Sổ tay Unesco về giáo dục và đào tạo báo chí
[6] Tổng luận Khoa học – Công nghệ – Kinh tế (3/2021), Quản trị công nghệ của cách mạng công nghiệp lần thứ tư. Cục thông tin khoa học và công nghệ quốc gia.