Ngày 22/7 vừa qua, trong một sự kiện quan trọng của Cục Dự trữ Liên bang Mỹ (FED) tập trung vào việc thảo luận về tác động kinh tế và xã hội của trí tuệ nhân tạo (AI), Sam Altman, CEO của OpenAI – công ty nổi tiếng với ChatGPT, đã bày tỏ sự lo ngại sâu sắc về những rủi ro tiềm ẩn mà công nghệ AI có thể gây ra cho xã hội. Một trong những vấn đề được ông Altman nhấn mạnh là khả năng giả mạo giọng nói và hình ảnh bằng AI đang phát triển với tốc độ chóng mặt, đến mức có thể vượt qua nhiều hình thức xác thực hiện tại.
Ông Altman chỉ ra rằng vẫn còn nhiều tổ chức tài chính chấp nhận sử dụng giọng nói như một phương thức xác minh để chuyển tiền hoặc thực hiện các hành động quan trọng, điều mà ông cho là “thực sự nguy hiểm”. Theo ông, AI hiện đã có khả năng đánh bại gần như toàn bộ các phương thức xác thực hiện tại, ngoại trừ mật khẩu. Điều này đặt ra một thách thức lớn trong việc đảm bảo an ninh và bảo mật cho các giao dịch tài chính cũng như thông tin cá nhân trong thời đại kỹ thuật số.
Không chỉ dừng lại ở đó, ông Altman còn bày tỏ sự lo ngại về viễn cảnh siêu AI bị các thế lực thù địch lạm dụng trong khi phần còn lại của thế giới chưa đủ khả năng phòng thủ. Ông lo lắng về việc một kẻ xấu có thể tạo ra siêu AI trước phần còn lại của thế giới và sử dụng nó để tấn công vào các hệ thống quan trọng như lưới điện hoặc chế tạo vũ khí sinh học. Những rủi ro này, theo ông, cần được các nhà lãnh đạo và các chuyên gia trong lĩnh vực AI nghiêm túc xem xét và tìm kiếm các giải pháp kiểm soát.
Ông Altman cũng lên tiếng về việc thế giới chưa sẵn sàng đối mặt với những công nghệ mới như video và cuộc gọi AI giả mạo, điều này có thể không thể phân biệt được với người thật. Ông cho rằng cần có các giải pháp để kiểm soát sự phát triển và sử dụng AI một cách có trách nhiệm. Sáng kiến The Orb – một thiết bị giúp xác minh người dùng là con người thật trong môi trường kỹ thuật số – được ông Altman ủng hộ như một bước tiến hướng tới việc tạo ra một nền tảng “chứng thực nhân dạng” trong thế giới mà AI có thể dễ dàng giả mạo mọi thứ.
Trước những lo ngại về việc sử dụng AI vào mục đích xấu, ông Altman khẳng định OpenAI không phát triển các công cụ tạo video hay giọng nói giả mạo. Tuy nhiên, ông cũng thừa nhận rằng các công nghệ này đang tiến bộ rất nhanh, không chỉ trong nước Mỹ mà còn trên toàn thế giới. Ông Altman cảnh báo về một cuộc khủng hoảng toàn cầu về sự thật và lòng tin nếu không có các biện pháp kiểm soát và quản lý sự phát triển của AI.
Trước đó, đã có nhiều sự cố liên quan đến deepfake gây chấn động dư luận. Tại Việt Nam, các chuyên gia cũng đã lên tiếng trước một số trào lưu sử dụng deepfake để tạo nội dung câu like, câu view. Luật sư Đăng Ngọc Duệ, Giám đốc Công ty Luật TNHH Phụng Sự Công Lý, cho biết tùy thuộc vào nội dung hình ảnh, video được dàn dựng và mục đích của người sản xuất/phát tán, sẽ có các lỗi và quy định xử lý riêng. Điều này cho thấy sự cần thiết của việc quản lý và kiểm soát nội dung trên môi trường Internet để đảm bảo một không gian mạng an toàn và lành mạnh cho người dùng.