Chủ Nhật, ngày 24 tháng 11 năm 2024

Châu Âu cảnh báo về những hậu họa của trí tuệ nhân tạo

Ngày phát hành: 14/01/2019 Lượt xem 1772

 

Nhóm cấp cao về trí tuệ nhân tạo của Ủy ban châu Âu (EC) vừa soạn thảo một báo cáo về đạo đức và trí tuệ nhân tạo (AI). Báo cáo đã thu hút sự chú ý về các vấn đề liên quan đến nhận dạng, xếp hạng công dân và robot "sát thủ". Nhóm này tập hợp 52 chuyên gia đến từ các học viện, doanh nghiệp và xã hội dân sự, những người đã đề cập đến một loạt “lo ngại nghiêm trọng" cho tương lai của trí tuệ nhân tạo.

 

Ảnh minh hoạ. (Nguồn: TM Magazine)

 

Báo cáo cũng lưu ý rằng các nhà phát triển AI nên đảm bảo rằng con người phải được thông báo về việc họ tương tác với danh tính AI (không phải con người) hoặc họ có thể yêu cầu và xác thực thông tin này.

Robot ngày càng trở nên giống với con người, vì vậy EU đang cố gắng đảm bảo rằng chúng không bao giờ bị nhầm lẫn với người thật, do đó cần đảm bảo ranh giới rõ ràng các nguyên tắc về đạo đức, hành vi và giá trị giữa người thật và robot.

Các tác giả nghiên cứu cho biết việc đưa người máy "siêu thực" vào xã hội có thể thay đổi nhận thức của chúng ta về con người và nhân loại. Cần lưu ý rằng sự nhầm lẫn giữa con người và máy móc có thể gây ra những hậu quả khó lường, chẳng hạn như sự gắn bó, ảnh hưởng hoặc giảm giá trị của con người. Do đó, sự phát triển của robot và nhất là robot hình người phải là chủ đề của sự đánh giá đạo đức một cách cẩn thận. 

Một lĩnh vực khác khiến các thành viên của nhóm cấp cao lo lắng là việc sử dụng AI trong các công nghệ nhận dạng, chẳng hạn như phần mềm nhận dạng khuôn mặt. Những công nghệ này hiện đang được thử nghiệm ở Anh. Cảnh sát Anh tin rằng công nghệ sẽ cho phép họ nhận ra tội phạm bị truy nã trong số hàng loạt người tham gia mua sắm Giáng sinh. Tuy nhiên, đối với các tác giả của báo cáo, thiếu sự ưng thuận của người dân trong việc áp dụng cũng tạo ra một vấn đề đạo đức nghiêm trọng.

Báo cáo cũng đề cập đến chủ đề của các hệ thống vũ khí chiến đấu tự hành, còn được gọi là "robot sát thủ". Các hệ thống này có thể hoạt động mà không cần sự kiểm soát thực sự của con người. Đây là ví dụ về trường hợp thiết bị theo dõi tên lửa tự hành.

Vào tháng 9, Nghị viện châu Âu đã thông qua nghị quyết kêu gọi lệnh cấm quốc tế đối với các "robot sát thủ" này, trong đó có các tên lửa có khả năng lựa chọn mục tiêu cũng như những cỗ máy có khả năng học hỏi với kỹ năng nhận thức để có thể ra quyết định sẽ tấn công ai, khi nào và ở đâu. Các nghị sĩ nhấn mạnh những "máy móc không thể đưa ra quyết định như con người và đánh giá rằng các quyết định trong chiến tranh phải là đặc quyền của bộ não con người”.

Nghị quyết được thông qua sau các cuộc tranh luận không thành công tại Liên hợp quốc trong vấn đề cấm các hệ thống vũ khí chiến đấu tự hành. Một nhóm các quốc gia xung quanh Mỹ  và Nga, như Hàn Quốc và Israel, đã phản đối quyết liệt lệnh cấm trên.

Quan điểm của Nhóm cấp cao phù hợp với lập trường của Nghị viện châu Âu thể hiện trong nghị quyết của mình. Đó là việc tìm câu trả lời cho ý nghĩa đạo đức và pháp lý liên quan đến trách nhiệm, sự kiểm soát của con người và quyền con người trong sự phát triển vũ khí chiến đấu tự hành.

Một cách tổng quát, các kết luận về phương hướng đạo đức của Ủy ban châu Âu bảo vệ cách tiếp cận lấy con người làm trung tâm để phát triển AI, phù hợp với các quyền cơ bản và các giá trị xã hội. Về lâu dài, mục tiêu là thúc đẩy một AI đáng tin cậy.

Phó Chủ tịch Ủy ban châu Âu phụ trách Thị trường Kỹ thuật số Andrus Ansip đánh giá AI mang lại lợi ích lớn cho xã hội, từ việc phát hiện và chữa lành ung thư đến giảm tiêu thụ năng lượng. Nhưng để mọi người chấp nhận và sử dụng các hệ thống dựa trên AI, thì rất cần phải làm cho người dân tin tưởng và chắc chắn rằng quyền riêng tư của họ sẽ được tôn trọng và các quyết định đưa ra là hoàn toàn công minh.

 

Kim Chung (TTXVN)

 

Tin Liên quan

Góp ý về nội dung bài viết