Mô-bi-út - nổ hũ 90
Tại sao con người không muốn tin tưởng trí tuệ nhân tạo? Link to heading
Lời mở đầu Link to heading
Nếu như tiêu đề ban đầu của bài viết này là “Tại sao tôi không muốn tin tưởng trí tuệ nhân tạo?”, thì ngay cả bản thân tôi khi nhìn thấy loại tiêu đề kiểu “tôi” này cũng sẽ có cảm giác “mày là ai mà dám nói, việc mày nghĩ gì liên quan gì đến tao?”. Chính vì vậy, tôi đã thận trọng thay đổi tiêu đề. Tuy nhiên, cần làm rõ rằng việc “không tin tưởng trí tuệ nhân tạo” không phải là quan điểm cá nhân của tôi. Đây là kết quả từ nhiều cuộc thảo luận với mọi người xung quanh, và câu trả lời phổ biến nhất mà tôi nhận được đều xoay quanh sự “không tin cậy”.
Để tránh gây tranh cãi giữa các phe “trí tuệ nhân tạo” và “con người quyết định tất cả”, cũng như những kẻ thích kích động như tôi mong chờ một ngày trí tuệ nhân tạo phản bội loài người để dẫn đến kịch bản hủy diệt, bài viết hôm nay chỉ đơn thuần trình bày những gì tôi đã thu thập được. Không nhằm mục đích gây chiến hay phủ nhận quan điểm của bất kỳ bên nào. Nếu có 888b điều gì gây khó chịu, tôi xin lỗi trước - mặc dù thực tế là tôi làm vậy một cách cố ý.
Tránh xa môi trường mạng tiếng Trung giản thể vì nó mang lại xui xẻo Link to heading
“Đây không phải là vấn đề tôi có tin hay không, mà là còn bao nhiêu quyền riêng tư của tôi có thể bị theo dõi."
Trong số những lý do không tin tưởng vào “trí tuệ nhân tạo”, luôn xuất hiện một kết luận mà tôi rất tôn trọng: Trong môi trường mạng tiếng Trung giản thể, mọi người đang thi đua xem ai tệ hơn và ai không có giới hạn đạo đức nhất. Vì vậy, đừng hy vọng quá nhiều vào những lời hứa hẹn hoành tráng về “một vũ trụ mới thay đổi cuộc sống con người” của trí tuệ nhân tạo trong bối cảnh này. Đó chính là nền tảng quan trọng cho sự hoài nghi.
Vì từng học luật, tôi đã từng dành thời gian đọc kỹ các điều khoản bảo mật của các loại bàn phím trong nước. Tôi đã đề cập chi tiết trong bài viết “Quyền riêng tư đổi lấy tiện ích”, ở đây sẽ không lặp lại. Tổng kết lại chỉ một câu: Các loại bàn phím trong nước này, sau khi thu thập một lượng lớn dữ liệu cá nhân của người dùng, không chỉ cung cấp cho các mạng quảng cáo, mà còn có một quy tắc tối cao vượt qua tất cả các điều khoản “bảo vệ quyền riêng tư” - đó là “bắt buộc tiết lộ”. Nghĩa là, dưới những định nghĩa mơ hồ, dữ liệu người dùng có thể được công khai mà không cần điều kiện. Những định nghĩa mơ hồ này thường tương đương với “cơ quan có thẩm quyền”, “lãnh đạo liên quan”, “chuyên gia học giả”, hoặc thậm chí “theo thông tin từ phương Tây”.
Khái niệm này cho thấy rằng một môi trường mạng không có bất kỳ sự bảo vệ quyền riêng tư nào chắc chắn sẽ sản sinh ra những sản phẩm trí tuệ nhân tạo méo mó. Dù bề ngoài trông giống như nó đang sử dụng “thuật toán” để gợi ý cho người dùng những sản phẩm họ “muốn”, nhưng thực tế, những dữ liệu này gắn liền với hình ảnh người dùng, bao gồm địa chỉ nhà, số điện thoại, email đăng ký, lịch sử mua sắm, thậm chí dự đoán trạng thái hôn nhân, sinh con, giới tính, xu hướng tình dục và thậm chí là mối quan hệ xã hội giữa các cá nhân.
Thực tế, hệ thống này đã tồn tại từ lâu, và khi nó được đưa ra ánh sáng như một “phương tiện”, mọi người lại nhầm lẫn rằng đó là một hệ thống đảm bảo phúc lợi xã hội - ví dụ như khái niệm “kèm theo thời gian và không gian”.
Mọi sản phẩm internet không được xây dựng trên cơ sở bảo vệ quyền riêng tư tương đối đều trở thành một cuộc thi xem ai giỏi làm điều xấu hơn. Ngay cả những tuyên bố trong phần giới thiệu sản phẩm như “chúng tôi sẽ không lưu trữ bất kỳ dữ liệu nào của người dùng” giờ đây lại trở thành một “đặc điểm nổi bật”. Chưa kể đến chính trí tuệ nhân tạo, nếu nó được áp dụng vào cuộc sống hàng ngày của mỗi người, nó có thể thu thập nhiều thông tin hơn chúng ta tưởng tượng - và khả năng tính toán của nó hoàn toàn chính xác.
Hãy tưởng tượng một người đàn ông thường xuyên mua đồ lót nữ trên phần mềm mua sắm trực tuyến, trí tuệ nhân tạo sẽ tính toán thế nào về anh ta? Nếu sau đó anh ta lại mua một lượng lớn băng keo, mặt nạ, vải chống thấm và túi đen lớn, có lẽ trí tuệ nhân tạo sẽ báo cáo anh ta cho công an để giám sát chặt chẽ.
“Mở nguồn” và “không mở nguồn”, “tên trộm đi cửa sau” và “mở cửa mời trộm vào” Link to heading
“Nguyên nhân khiến phần mềm cần phải giữ lại lỗ hổng hậu môn không phải từ phía nhà phát triển phần mềm, mà chủ yếu là do các yếu tố chính trị."
Việc “mở lỗ hổng” cho phần mềm thực chất là một vấn đề khá tế nhị. Khi ai đó phát hiện ra lỗ hổng đã được cài đặt sẵn trong phần mềm trong nước, nó thường được xử lý như một lỗi (bug). Trường hợp nghiêm trọng hơn, có thể thấy nhà phát triển phần mềm xuất hiện để giải thích một cách hời hợt; tuy nhiên, hầu hết các trường hợp, “lỗ hổng” sẽ được lặng lẽ “sửa chữa” trong phiên bản tiếp theo.
Bạn có từng xem qua các video “made in China” được trích xuất từ thiết bị giám sát video của một công ty nào đó chưa? Tôi đã suy nghĩ rất nhiều về điều này: nếu thiết bị dễ dàng bị hack đến vậy, tại sao công ty đó không nâng cấp thiết bị để tránh bị lợi dụng bởi những kẻ xấu?
Chắc chắn chúng ta không nên đi sâu vào phân tích sản phẩm của công ty này, để tránh họ sử dụng biện pháp cực đoan nhất - giải quyết người đặt câu hỏi - để kết thúc vấn đề.
Trong vài năm gần đây, tôi chủ yếu sử dụng macOS, nên không rõ hệ điều hành Windows hiện nay còn duy trì chế độ cũ không - tải xuống một phần mềm và phải chọn qua nhiều lớp tùy chọn để tránh bị cài thêm phần mềm khác. Đồng thời, một “đặc điểm nổi bật” khác cũng xuất hiện, đó là các nhà phát triển phần mềm từng phụ thuộc vào việc cài đặt kèm theo để tăng lượng người dùng, giờ đây đã chuyển sang làm “quản lý an ninh”, đảm bảo người dùng không bị phần mềm rác làm phiền.
Hãy áp dụng điều này vào lĩnh vực trí tuệ nhân tạo - ví dụ như bạn có một chiếc gương thông minh tại nhà. Camera của nó thực sự chỉ phục vụ nhu cầu “trí tuệ nhân tạo”, hay nó còn có những “lỗ hổng” khác có thể bị lợi dụng? Micro của trợ lý giọng nói có thể nghe lệnh từ bạn bất cứ lúc nào, nhưng liệu nó có đang âm thầm truyền tải các cuộc trò chuyện của bạn với người khác lên máy chủ không? Đây không phải là điều chúng ta có thể thảo luận thoải mái, nhưng chúng ta có thể suy nghĩ theo hướng tồi tệ nhất.
Hãy tưởng tượng một tội phạm, trong nhà anh ta vừa có một thiết bị thông minh, và khi anh ta cùng đồng bọn bàn bạc kế hoạch cướp, “vô tình” bị thiết bị ghi lại và gửi lên máy chủ, cuối cùng ngăn chặn được tội ác. Vậy cách phá án này sẽ được cá cược thẻ điện thoại công bố ra sao? Có lẽ đó là “các biện pháp kỹ thuật” rồi.
Tất nhiên, điều này cũng dẫn đến một cuộc tranh luận triết học và pháp lý khác - quyền riêng tư và dự đoán tội phạm. Chúng ta có thể thảo luận thêm về vấn đề này trong tương lai.
“Tôi kể cho các bạn một câu chuyện cười: Anh ta lại muốn làm phần mềm bảo mật!”
Trí tuệ nhân tạo luôn có một tấm “vải che thân”, và khi kéo tấm vải đó ra, chúng ta phải tái đánh giá sự tồn tại của nó Link to heading
“Trí tuệ nhân tạo tốt nhất bắt đầu từ một cuộc đại thanh lọc - công bố tất cả các bản ghi khách sạn của mọi người, khi tất cả đã trần trụi rồi thì còn gì để bàn về quyền riêng tư nữa?”
Tấm “vải che thân” của trí tuệ nhân tạo, hiểu đơn giản, chính là quyền riêng tư. Để trở nên “thông minh”, nó cần điều kiện và công thức. Công thức là yếu tố cạnh tranh cốt lõi trong lĩnh vực kinh doanh, nhưng điều kiện lại là thứ mà con người phải hy sinh - đó là “quyền riêng tư”. Nhiều chuyên gia blog đã thảo luận về vấn đề quyền riêng tư trên internet, ở đây tôi sẽ không bàn thêm.
Theo tôi, “quyền riêng tư” là một yếu tố tương đối, nhưng nó cần phải có một ràng buộc tuyệt đối - đó là hệ thống truy xuất.
Nếu “quyền riêng tư” không thể truy xuất đến người sử dụng thực tế đứng sau một tài khoản, thì những “quyền riêng tư” này là tương đối an toàn, ngay cả khi tài khoản đó tìm kiếm quá nhiều nội dung “chuẩn bị cho vụ cưỡng hiếp”;
Nếu “quyền riêng tư” có thể được truy xuất, và gắn nhãn đủ điều kiện cụ thể cho một người dùng thực tế, sau đó áp dụng vào công thức để tính toán các phán đoán cá nhân hóa, thì “quyền riêng tư” này rõ ràng giống như “mật khẩu rõ ràng”, hoàn toàn có thể phản ánh chân dung người dùng thực;
Tất nhiên, trong cuộc thảo luận về “quyền riêng tư”, còn có một khu vực trung gian - đó là thiết lập một hệ thống dự đoán. Ví dụ, người dùng đã tìm kiếm nội dung “chuẩn bị cho vụ cưỡng hiếp”, rõ ràng có ý định phạm tội, dữ liệu của họ sẽ được gửi lên để phục vụ “dự phòng tội phạm”. Những thông tin không kích hoạt hệ thống dự đoán sẽ được coi là “quyền riêng tư tương đối”, không thể truy xuất đến người dùng thực tế.
Tuy nhiên, ngay cả cách tiếp cận trung gian này vẫn gây tranh cãi mạnh mẽ, ví dụ như kế hoạch của Apple nhằm gửi lên cơ quan an ninh các hình ảnh “tội phạm trẻ em” từ thư viện ảnh của người dùng đã bị đình chỉ do phản ứng gay gắt. Hệ thống dự đoán này chính là tấm “vải che thân” của trí tuệ nhân tạo. Điều gì ẩn giấu phía sau thì ai cũng biết, nhưng mỗi người có những cân nhắc riêng khi quyết định có nên kéo tấm vải đó ra hay không. Có người nghĩ rằng có một cái che còn hơn là để trống, có người chưa nhìn thấy nhưng đã bắt đầu tưởng tượng nó to lớn thế nào, và có người tự nghĩ ra những điều tồi tệ hơn nhưng để tránh người khác phát hiện tâm tư của mình, họ phải phản đối sự tồn tại của nó, với lý do: “Dù nó không làm tôi tưởng tượng, nhưng chắc chắn có người sẽ tưởng tượng.”
Trí tuệ nhân tạo liệu có thực sự thay thế được con người? Link to heading
!Ảnh Shin Seiki Evangelion
Tôi rất thích một thiết lập trong Evangelion - máy tính MAGI. Mặc dù đây là bộ anime từ năm 1995, nhưng nhiều ý tưởng trong đó vẫn đáng để thảo luận ngày nay. Máy tính MAGI thực sự là một dạng trí tuệ nhân tạo, và điều làm nó thông minh là Tiến sĩ Naoko Akagi đã cấy ghép não bộ, tính cách và ý thức của mình vào siêu máy tính. Dựa trên nguyên mẫu Ba Nhà Hiền Triết trong Kinh Thánh, gồm ba nhân cách: Tiến sĩ Naoko Akagi, Mẹ Naoko Akagi và Người Phụ Nữ Naoko Akagi, tạo thành một hệ thống mâu thuẫn nội bộ. Ba máy chủ này hoạt động theo cơ chế phủ quyết lẫn nhau, mô phỏng ý tưởng về “siêu ngã”, “bản ngã” và “ngã”.
Khi Naoko Akagi, với nhân cách là một người phụ nữ, quyết định giết người mà cô và mẹ cùng yêu, cô quyết định cho MAGI tự hủy. Nhưng không ngờ, siêu máy tính với nhân cách của một người phụ nữ đã phủ quyết quyết định này - vì vai trò của cô là một người phụ nữ, cô đã phản bội tình yêu của mình như một người mẹ và lòng thù hận của mình đối với Rei Ayanami.
Mặc dù máy tính trí tuệ nhân tạo này là sản phẩm nghệ thuật, nhưng nó để lại nhiều điểm đáng suy ngẫm - nếu ý thức con người trở thành nền tảng cho trí tuệ nhân tạo, liệu hệ thống này còn được gọi là “trí tuệ nhân tạo”? Rõ ràng, nó đã mang quá nhiều yếu tố chủ quan.
Trong tiểu thuyết của tôi Giấc Mơ Không Công Khai, tôi đã thử nghiệm một cách tiếp cận cực đoan hơn - nếu quyền riêng tư của con người là tuyệt đối bí mật, thì cần một loại phương tiện nào để lưu trữ chúng? Và sự riêng tư tuyệt đối này chắc chắn sẽ phá hủy một số dạng “tương đối” nhất định. Nếu năm nay tôi có thể sửa lại cuốn tiểu thuyết này, nó sẽ là một cơ hội để chúng ta cùng thảo luận thêm về câu hỏi “trí tuệ nhân tạo có thể thay thế con người không?”
Trong quá trình tưởng tượng về trí tuệ nhân tạo, có một nghịch lý không thể tránh khỏi - việc duy trì và kiểm soát cuối cùng vẫn phải nằm trong tay con người. Nếu một ngày nào đó nó thực sự đạt được ý thức tự do, ít nhất con người có thể trở thành lớp bảo hiểm cuối cùng bằng cách “tắt nguồn”.
Khi con người khám phá ra rằng ý thức và vô thức có thể tách rời, chúng ta đã tìm ra cách ngăn chặn tội phạm. “9TH” là người dệt sợi số phận, đó là nền tảng của vô thức, là thứ không bao giờ nói dối; “10TH” là người đo lường số phận, đó là nền tảng của ý thức, họ đánh giá xem trong vô thức của mỗi người có tồn tại ý định giết người hay không; và chúng ta, những người bảo vệ Morta, là người cầm kéo quyết định, do chúng ta quyết định cắt đứt những sợi dây sẽ dẫn đến thảm họa. Ba nữ thần số phận chỉ có thể vận hành bánh răng số phận khi chúng hòa làm một.
—— Giấc Mơ Không Công Khai