Thoại Viết Hoàng
Writer
Dan Purcell, Người sáng lập của Ceartas io, cho biết khả năng của trí tuệ nhân tạo đang tăng tốc nhanh chóng, nhưng các video và hình ảnh giả mạo đã gây ra tác hại thực sự.
Thông báo dịch vụ công cộng gần đây này của FBI đã cảnh báo về những nguy cơ mà AI deepfakes gây ra đối với quyền riêng tư và an toàn trực tuyến. Tội phạm mạng được biết là đang khai thác và tống tiền các cá nhân bằng cách thao tác kỹ thuật số hình ảnh thành hình ảnh giả rõ ràng và đe dọa phát hành chúng trực tuyến trừ khi một khoản tiền được trả.
Điều này, và các bước khác đang được thực hiện, cuối cùng là một điều tốt. Tuy nhiên, tôi tin rằng vấn đề đã lan rộng hơn bất kỳ ai nhận ra, và cần có những nỗ lực mới để chống lại nó.
Tại sao Deepfakes có thể được định vị dễ dàng như vậy?
Điều khiến tôi lo lắng về các deepfakes có hại là sự dễ dàng xác định vị trí của chúng. Thay vì những nơi tối tăm, âm u của internet, chúng được tìm thấy trong các ứng dụng truyền thông xã hội chính thống mà hầu hết chúng ta đã có trên điện thoại thông minh của mình.
Dự luật hình sự hóa những người chia sẻ hình ảnh tình dục sâu của người khác
Các nhà lập pháp Thượng viện ở Minnesota đã thông qua dự luật, khi được phê chuẩn, sẽ hình sự hóa những người chia sẻ hình ảnh khiêu *** sâu của người khác mà không có sự đồng ý trước của họ. Dự luật đã được thông qua gần như nhất trí bao gồm những người chia sẻ deepfakes để gây ảnh hưởng quá mức đến một cuộc bầu cử hoặc gây tổn hại cho một ứng cử viên chính trị.
Các tiểu bang khác đã thông qua luật tương tự bao gồm California, Virginia và Texas.
Tôi rất vui về việc thông qua dự luật này và hy vọng nó sẽ không còn lâu nữa trước khi nó được thông qua hoàn toàn thành luật. Tuy nhiên, tôi cảm thấy rằng cần phải có luật nghiêm ngặt hơn trên khắp tất cả các bang của Hoa Kỳ và trên toàn cầu. EU đang dẫn đầu về điều này.
Thượng viện bang Minnesota và cảnh báo của FBI
Tôi lạc quan nhất rằng các hành động mạnh mẽ của Thượng viện Minnesota và các cảnh báo của FBI sẽ thúc đẩy một cuộc tranh luận quốc gia về vấn đề quan trọng này. Lý do của tôi là chuyên nghiệp nhưng cũng rất cá nhân. Vài năm trước, một đối tác cũ của tôi đã tải lên những hình ảnh tình dục thân mật của tôi mà không có sự đồng ý trước của tôi.
KHÔNG bảo vệ cho cá nhân bị ảnh hưởng
Những bức ảnh đã xuất hiện trên mạng khoảng hai năm trước khi tôi phát hiện ra, và khi tôi phát hiện ra, trải nghiệm đó vừa xấu hổ vừa đau đớn. Tôi cảm thấy hoàn toàn lo lắng khi một hành động như vậy có thể được thực hiện mà không có sự truy cứu của thủ phạm hoặc sự bảo vệ cho cá nhân bị ảnh hưởng bởi một hành động như vậy. Tuy nhiên, đó là chất xúc tác cho công việc kinh doanh trong tương lai của tôi khi tôi thề sẽ phát triển một giải pháp có thể theo dõi, định vị, xác minh và cuối cùng là xóa nội dung không có sự đồng thuận.
Hình ảnh Deepfake thu hút sự quan tâm trên toàn thế giới
Những hình ảnh deepfake thu hút sự quan tâm và chú ý trên toàn thế giới gần đây bao gồm vụ bắt giữ cựu Donald Trump, chiếc áo khoác phao màu trắng sành điệu của Giáo hoàng Francis và Tổng thống Pháp Emmanuel Macron đang làm công việc thu gom rác. Sau đó là khi các cuộc đình công cải cách lương hưu của Pháp đang ở đỉnh cao. Phản ứng ngay lập tức đối với những bức ảnh này là tính hiện thực của chúng, mặc dù rất ít người xem bị lừa. Đáng nhớ? Đúng. Gây thiệt hại? Không hoàn toàn, nhưng tiềm năng là có.
Tổng thống Biden đã giải quyết vấn đề
Tổng thống Biden, người gần đây đã đề cập đến sự nguy hiểm của AI với các nhà lãnh đạo công nghệ tại Nhà Trắng, là tâm điểm của một cuộc tranh cãi về deepfake vào tháng 4 năm nay. Sau khi tuyên bố ý định tái tranh cử tại Hoa Kỳ năm 2024
Trong cuộc bầu cử tổng thống, RNC (Ủy ban Quốc gia Đảng Cộng hòa) đã phản ứng bằng một quảng cáo trên YouTube tấn công Tổng thống bằng cách sử dụng các hình ảnh hoàn toàn do AI tạo ra. Một tuyên bố từ chối trách nhiệm nhỏ ở trên cùng bên trái của video chứng thực điều này, mặc dù tuyên bố từ chối trách nhiệm quá nhỏ nhưng có khả năng rõ ràng là một số người xem có thể nhầm hình ảnh là thật.
Nếu RNC đã chọn đi theo một con đường khác và tập trung vào tuổi cao hoặc khả năng di chuyển của Biden, thì những hình ảnh AI về ông trong viện dưỡng lão hoặc xe lăn có thể có khả năng gây ảnh hưởng đến cử tri về sự phù hợp của ông cho chức vụ trong nhiệm kỳ 4 năm nữa.
Hình ảnh thao túng có khả năng gây nguy hiểm cao
Không còn nghi ngờ gì nữa, việc thao túng những hình ảnh như vậy có khả năng rất nguy hiểm. Tu chính án thứ nhất được cho là để bảo vệ quyền tự do ngôn luận. Với công nghệ deepfake, cuộc tranh luận chính trị hợp lý, chu đáo hiện đang gặp nguy hiểm. Tôi có thể thấy các cuộc tấn công chính trị ngày càng trở nên hỗn loạn hơn khi năm 2024 đến gần.
Nếu Tổng thống Hoa Kỳ có thể thấy mình ở một vị trí dễ bị tổn thương như vậy trong việc bảo vệ sự chính trực, giá trị và danh tiếng của mình. Những công dân còn lại của thế giới có hy vọng gì?
Một số video deepfake thuyết phục hơn những video khác, nhưng trong cuộc đời làm nghề của mình, tôi nhận thấy rằng không chỉ các kỹ sư máy tính có tay nghề cao mới tham gia sản xuất chúng. Một chiếc máy tính xách tay và một số bí quyết cơ bản về máy tính có thể là tất cả những gì cần thiết, và cũng có rất nhiều nguồn thông tin trực tuyến.
Tìm hiểu để biết sự khác biệt giữa video thật và giả
Đối với những người trong chúng ta làm việc trực tiếp trong lĩnh vực công nghệ, việc biết sự khác biệt giữa video thật và giả là tương đối dễ dàng. Nhưng khả năng phát hiện ra một deepfake của cộng đồng rộng lớn hơn có thể không đơn giản như vậy. Một nghiên cứu trên toàn thế giới vào năm 2022 cho thấy 57% người tiêu dùng tuyên bố rằng họ có thể phát hiện ra video deepfake, trong khi 43% khẳng định họ không thể phân biệt được đâu là video deepfake và video thật.
Nhóm thuần tập này chắc chắn sẽ bao gồm những người trong độ tuổi bầu cử. Điều này có nghĩa là các deepfake thuyết phục có khả năng xác định kết quả của một cuộc bầu cử nếu video được đề cập liên quan đến một ứng cử viên chính trị.
Trí tuệ nhân tạo
Nhạc sĩ và nhạc sĩ Sting gần đây đã đưa ra một tuyên bố cảnh báo rằng các nhạc sĩ không nên tự mãn vì họ hiện đang cạnh tranh với các hệ thống AI sáng tạo. Tôi có thể thấy quan điểm của anh ấy. Một nhóm có tên Chiến dịch Nghệ thuật Con người hiện đang tiến hành một bản kiến nghị trực tuyến nhằm giữ cho sự thể hiện của con người “ở trung tâm của quá trình sáng tạo và bảo vệ sinh kế cũng như công việc của người sáng tạo”.'
Bản kiến nghị khẳng định rằng AI không bao giờ có thể thay thế cho thành tựu và sự sáng tạo của con người. TDM (khai thác văn bản và dữ liệu) là một trong nhiều cách AI có thể sao chép giọng hát hoặc phong cách sáng tác của nhạc sĩ và liên quan đến việc đào tạo một lượng lớn dữ liệu.
AI có thể mang lại lợi ích cho chúng ta với tư cách là con người.
Mặc dù tôi có thể thấy AI có thể mang lại lợi ích như thế nào cho con người chúng ta, nhưng tôi vẫn lo ngại về các vấn đề xung quanh việc quản trị đúng đắn AI tổng quát trong các tổ chức. Chúng bao gồm thiếu minh bạch, rò rỉ dữ liệu, thiên vị, ngôn ngữ độc hại và bản quyền.
Chúng ta phải có các quy định và pháp luật mạnh mẽ hơn.
Nếu không có quy định chặt chẽ hơn, AI tổng quát có nguy cơ bóc lột các cá nhân, bất kể họ có phải là nhân vật của công chúng hay không. Theo tôi, sự tiến bộ nhanh chóng của công nghệ như vậy sẽ làm cho điều này trở nên tồi tệ hơn đáng kể và cảnh báo gần đây của FBI phản ánh điều này.
Trong khi mối đe dọa này tiếp tục gia tăng, thì thời gian và tiền bạc đổ vào nghiên cứu và phát triển AI cũng vậy. Giá trị thị trường toàn cầu của AI hiện được định giá gần 100 tỷ đô la Mỹ và dự kiến sẽ tăng vọt lên gần hai nghìn tỷ đô la Mỹ vào năm 2030.
Đây là một sự cố có thật được đưa tin trên bản tin KSL hôm nay.
Ba loại hàng đầu là trộm danh tính và lừa đảo mạo danh
Công nghệ này đã đủ tiên tiến để có thể tạo video deepfake chỉ từ một hình ảnh, trong khi phiên bản tái tạo có thể chấp nhận được của giọng nói của một người chỉ cần vài giây âm thanh. Ngược lại, trong số hàng triệu báo cáo của người tiêu dùng được gửi vào năm ngoái, ba loại hàng đầu là hành vi trộm cắp danh tính và lừa đảo mạo danh, với kết quả là 8,8 tỷ đô la đã bị mất vào năm 2022.
Quay lại luật Minnesota, hồ sơ cho thấy một đại diện duy nhất đã bỏ phiếu chống lại dự luật hình sự hóa những người chia sẻ hình ảnh khiêu *** sâu. Tôi tự hỏi động lực của họ là gì để làm như vậy.
Bản thân tôi đã từng là nạn nhân!
Bản thân là một nạn nhân, tôi đã lên tiếng khá nhiều về chủ đề này, vì vậy tôi sẽ coi đây là một vấn đề khá 'cắt và khô'. Khi điều đó xảy ra với tôi, tôi cảm thấy rất cô đơn và không biết tìm ai để được giúp đỡ. Rất may, mọi thứ đã tiến lên trong những bước nhảy vọt kể từ đó. Tôi hy vọng động lực tích cực này sẽ tiếp tục để những người khác không gặp phải tổn thương giống như tôi.
Dan Purcell là người sáng lập và Giám đốc điều hành của Ceartas DMCA, một công ty bảo vệ thương hiệu và bản quyền do AI cung cấp hàng đầu làm việc với những người sáng tạo, đại lý và thương hiệu hàng đầu thế giới để ngăn chặn việc sử dụng và phân phối trái phép nội dung của họ. Vui lòng truy cập www.ceartas.io để biết thêm thông tin.
Tham khảo bài viết gốc tại đây:
Điều này, và các bước khác đang được thực hiện, cuối cùng là một điều tốt. Tuy nhiên, tôi tin rằng vấn đề đã lan rộng hơn bất kỳ ai nhận ra, và cần có những nỗ lực mới để chống lại nó.
Tại sao Deepfakes có thể được định vị dễ dàng như vậy?
Điều khiến tôi lo lắng về các deepfakes có hại là sự dễ dàng xác định vị trí của chúng. Thay vì những nơi tối tăm, âm u của internet, chúng được tìm thấy trong các ứng dụng truyền thông xã hội chính thống mà hầu hết chúng ta đã có trên điện thoại thông minh của mình.
Dự luật hình sự hóa những người chia sẻ hình ảnh tình dục sâu của người khác
Các nhà lập pháp Thượng viện ở Minnesota đã thông qua dự luật, khi được phê chuẩn, sẽ hình sự hóa những người chia sẻ hình ảnh khiêu *** sâu của người khác mà không có sự đồng ý trước của họ. Dự luật đã được thông qua gần như nhất trí bao gồm những người chia sẻ deepfakes để gây ảnh hưởng quá mức đến một cuộc bầu cử hoặc gây tổn hại cho một ứng cử viên chính trị.
Các tiểu bang khác đã thông qua luật tương tự bao gồm California, Virginia và Texas.
Tôi rất vui về việc thông qua dự luật này và hy vọng nó sẽ không còn lâu nữa trước khi nó được thông qua hoàn toàn thành luật. Tuy nhiên, tôi cảm thấy rằng cần phải có luật nghiêm ngặt hơn trên khắp tất cả các bang của Hoa Kỳ và trên toàn cầu. EU đang dẫn đầu về điều này.
Thượng viện bang Minnesota và cảnh báo của FBI
Tôi lạc quan nhất rằng các hành động mạnh mẽ của Thượng viện Minnesota và các cảnh báo của FBI sẽ thúc đẩy một cuộc tranh luận quốc gia về vấn đề quan trọng này. Lý do của tôi là chuyên nghiệp nhưng cũng rất cá nhân. Vài năm trước, một đối tác cũ của tôi đã tải lên những hình ảnh tình dục thân mật của tôi mà không có sự đồng ý trước của tôi.
KHÔNG bảo vệ cho cá nhân bị ảnh hưởng
Những bức ảnh đã xuất hiện trên mạng khoảng hai năm trước khi tôi phát hiện ra, và khi tôi phát hiện ra, trải nghiệm đó vừa xấu hổ vừa đau đớn. Tôi cảm thấy hoàn toàn lo lắng khi một hành động như vậy có thể được thực hiện mà không có sự truy cứu của thủ phạm hoặc sự bảo vệ cho cá nhân bị ảnh hưởng bởi một hành động như vậy. Tuy nhiên, đó là chất xúc tác cho công việc kinh doanh trong tương lai của tôi khi tôi thề sẽ phát triển một giải pháp có thể theo dõi, định vị, xác minh và cuối cùng là xóa nội dung không có sự đồng thuận.
Hình ảnh Deepfake thu hút sự quan tâm trên toàn thế giới
Những hình ảnh deepfake thu hút sự quan tâm và chú ý trên toàn thế giới gần đây bao gồm vụ bắt giữ cựu Donald Trump, chiếc áo khoác phao màu trắng sành điệu của Giáo hoàng Francis và Tổng thống Pháp Emmanuel Macron đang làm công việc thu gom rác. Sau đó là khi các cuộc đình công cải cách lương hưu của Pháp đang ở đỉnh cao. Phản ứng ngay lập tức đối với những bức ảnh này là tính hiện thực của chúng, mặc dù rất ít người xem bị lừa. Đáng nhớ? Đúng. Gây thiệt hại? Không hoàn toàn, nhưng tiềm năng là có.
Tổng thống Biden đã giải quyết vấn đề
Tổng thống Biden, người gần đây đã đề cập đến sự nguy hiểm của AI với các nhà lãnh đạo công nghệ tại Nhà Trắng, là tâm điểm của một cuộc tranh cãi về deepfake vào tháng 4 năm nay. Sau khi tuyên bố ý định tái tranh cử tại Hoa Kỳ năm 2024
Trong cuộc bầu cử tổng thống, RNC (Ủy ban Quốc gia Đảng Cộng hòa) đã phản ứng bằng một quảng cáo trên YouTube tấn công Tổng thống bằng cách sử dụng các hình ảnh hoàn toàn do AI tạo ra. Một tuyên bố từ chối trách nhiệm nhỏ ở trên cùng bên trái của video chứng thực điều này, mặc dù tuyên bố từ chối trách nhiệm quá nhỏ nhưng có khả năng rõ ràng là một số người xem có thể nhầm hình ảnh là thật.
Nếu RNC đã chọn đi theo một con đường khác và tập trung vào tuổi cao hoặc khả năng di chuyển của Biden, thì những hình ảnh AI về ông trong viện dưỡng lão hoặc xe lăn có thể có khả năng gây ảnh hưởng đến cử tri về sự phù hợp của ông cho chức vụ trong nhiệm kỳ 4 năm nữa.
Hình ảnh thao túng có khả năng gây nguy hiểm cao
Không còn nghi ngờ gì nữa, việc thao túng những hình ảnh như vậy có khả năng rất nguy hiểm. Tu chính án thứ nhất được cho là để bảo vệ quyền tự do ngôn luận. Với công nghệ deepfake, cuộc tranh luận chính trị hợp lý, chu đáo hiện đang gặp nguy hiểm. Tôi có thể thấy các cuộc tấn công chính trị ngày càng trở nên hỗn loạn hơn khi năm 2024 đến gần.
Nếu Tổng thống Hoa Kỳ có thể thấy mình ở một vị trí dễ bị tổn thương như vậy trong việc bảo vệ sự chính trực, giá trị và danh tiếng của mình. Những công dân còn lại của thế giới có hy vọng gì?
Một số video deepfake thuyết phục hơn những video khác, nhưng trong cuộc đời làm nghề của mình, tôi nhận thấy rằng không chỉ các kỹ sư máy tính có tay nghề cao mới tham gia sản xuất chúng. Một chiếc máy tính xách tay và một số bí quyết cơ bản về máy tính có thể là tất cả những gì cần thiết, và cũng có rất nhiều nguồn thông tin trực tuyến.
Tìm hiểu để biết sự khác biệt giữa video thật và giả
Đối với những người trong chúng ta làm việc trực tiếp trong lĩnh vực công nghệ, việc biết sự khác biệt giữa video thật và giả là tương đối dễ dàng. Nhưng khả năng phát hiện ra một deepfake của cộng đồng rộng lớn hơn có thể không đơn giản như vậy. Một nghiên cứu trên toàn thế giới vào năm 2022 cho thấy 57% người tiêu dùng tuyên bố rằng họ có thể phát hiện ra video deepfake, trong khi 43% khẳng định họ không thể phân biệt được đâu là video deepfake và video thật.
Nhóm thuần tập này chắc chắn sẽ bao gồm những người trong độ tuổi bầu cử. Điều này có nghĩa là các deepfake thuyết phục có khả năng xác định kết quả của một cuộc bầu cử nếu video được đề cập liên quan đến một ứng cử viên chính trị.
Trí tuệ nhân tạo
Nhạc sĩ và nhạc sĩ Sting gần đây đã đưa ra một tuyên bố cảnh báo rằng các nhạc sĩ không nên tự mãn vì họ hiện đang cạnh tranh với các hệ thống AI sáng tạo. Tôi có thể thấy quan điểm của anh ấy. Một nhóm có tên Chiến dịch Nghệ thuật Con người hiện đang tiến hành một bản kiến nghị trực tuyến nhằm giữ cho sự thể hiện của con người “ở trung tâm của quá trình sáng tạo và bảo vệ sinh kế cũng như công việc của người sáng tạo”.'
Bản kiến nghị khẳng định rằng AI không bao giờ có thể thay thế cho thành tựu và sự sáng tạo của con người. TDM (khai thác văn bản và dữ liệu) là một trong nhiều cách AI có thể sao chép giọng hát hoặc phong cách sáng tác của nhạc sĩ và liên quan đến việc đào tạo một lượng lớn dữ liệu.
AI có thể mang lại lợi ích cho chúng ta với tư cách là con người.
Mặc dù tôi có thể thấy AI có thể mang lại lợi ích như thế nào cho con người chúng ta, nhưng tôi vẫn lo ngại về các vấn đề xung quanh việc quản trị đúng đắn AI tổng quát trong các tổ chức. Chúng bao gồm thiếu minh bạch, rò rỉ dữ liệu, thiên vị, ngôn ngữ độc hại và bản quyền.
Chúng ta phải có các quy định và pháp luật mạnh mẽ hơn.
Nếu không có quy định chặt chẽ hơn, AI tổng quát có nguy cơ bóc lột các cá nhân, bất kể họ có phải là nhân vật của công chúng hay không. Theo tôi, sự tiến bộ nhanh chóng của công nghệ như vậy sẽ làm cho điều này trở nên tồi tệ hơn đáng kể và cảnh báo gần đây của FBI phản ánh điều này.
Trong khi mối đe dọa này tiếp tục gia tăng, thì thời gian và tiền bạc đổ vào nghiên cứu và phát triển AI cũng vậy. Giá trị thị trường toàn cầu của AI hiện được định giá gần 100 tỷ đô la Mỹ và dự kiến sẽ tăng vọt lên gần hai nghìn tỷ đô la Mỹ vào năm 2030.
Đây là một sự cố có thật được đưa tin trên bản tin KSL hôm nay.
Ba loại hàng đầu là trộm danh tính và lừa đảo mạo danh
Công nghệ này đã đủ tiên tiến để có thể tạo video deepfake chỉ từ một hình ảnh, trong khi phiên bản tái tạo có thể chấp nhận được của giọng nói của một người chỉ cần vài giây âm thanh. Ngược lại, trong số hàng triệu báo cáo của người tiêu dùng được gửi vào năm ngoái, ba loại hàng đầu là hành vi trộm cắp danh tính và lừa đảo mạo danh, với kết quả là 8,8 tỷ đô la đã bị mất vào năm 2022.
Quay lại luật Minnesota, hồ sơ cho thấy một đại diện duy nhất đã bỏ phiếu chống lại dự luật hình sự hóa những người chia sẻ hình ảnh khiêu *** sâu. Tôi tự hỏi động lực của họ là gì để làm như vậy.
Bản thân tôi đã từng là nạn nhân!
Bản thân là một nạn nhân, tôi đã lên tiếng khá nhiều về chủ đề này, vì vậy tôi sẽ coi đây là một vấn đề khá 'cắt và khô'. Khi điều đó xảy ra với tôi, tôi cảm thấy rất cô đơn và không biết tìm ai để được giúp đỡ. Rất may, mọi thứ đã tiến lên trong những bước nhảy vọt kể từ đó. Tôi hy vọng động lực tích cực này sẽ tiếp tục để những người khác không gặp phải tổn thương giống như tôi.
Dan Purcell là người sáng lập và Giám đốc điều hành của Ceartas DMCA, một công ty bảo vệ thương hiệu và bản quyền do AI cung cấp hàng đầu làm việc với những người sáng tạo, đại lý và thương hiệu hàng đầu thế giới để ngăn chặn việc sử dụng và phân phối trái phép nội dung của họ. Vui lòng truy cập www.ceartas.io để biết thêm thông tin.
Tham khảo bài viết gốc tại đây: