• Tin tiêu điểm
Tin tức - Sự kiện › Tin trong nước17/6/2024 15:32

Nghiên cứu, phát triển các hệ thống trí tuệ nhân tạo có trách nhiệm.

Bộ Khoa học và Công nghệ vừa ban hành Quyết định về việc Hướng dẫn một số nguyên tắc về nghiên cứu, phát triển các hệ thống trí tuệ nhân tạo có trách nhiệm. Tài liệu hướng dẫn này nêu ra một số nguyên tắc chung mà tổ chức, cá nhân cần chú ý trong nghiên cứu, phát triển các hệ thống trí tuệ nhân tạo một cách có trách nhiệm và khuyến nghị tự nguyện tham khảo, áp dụng trong quá trình nghiên cứu, thiết kế, phát triển, cung cấp các hệ thống trí tuệ nhân tạo.


Hệ thống thiết bị phục vụ nghiên cứu, phát triển trí tuệ nhân tạo tại Viện Công nghệ thông tin, Viện Hàn lâm Khoa học và Công nghệ Việt Nam
 

Bộ Khoa học và Công nghệ cho biết, theo xu thế chung trên thế giới, các hệ thống trí tuệ nhân tạo được đánh giá sẽ mang lại các lợi ích to lớn cho con người, xã hội và nền kinh tế Việt Nam thông qua việc hỗ trợ, giải quyết các vấn đề khó khăn mà con người, cộng đồng đang phải đối mặt. Song song với quá trình đó, cần nghiên cứu, có biện pháp giảm thiểu các rủi ro trong quá trình phát triển, sử dụng trí tuệ nhân tạo và cân đối các yếu tố kinh tế, đạo đức và pháp lý liên quan. Vì vậy, các cơ quan chuyên môn cần nghiên cứu, xây dựng các tiêu chuẩn, hướng dẫn để định hướng kể cả đó là các quy định mềm và không có tính ràng buộc.

Trong hướng dẫn, Bộ Khoa học và Công nghệ đưa ra 9 nguyên tắc trong nghiên cứu, phát triển các hệ thống trí tuệ nhân tạo có trách nhiệm.

Thứ nhất, là tinh thần hợp tác, thúc đẩy đổi mới sáng tạo: Các nhà phát triển cần xem xét tính liên kết và khả năng tương tác giữa các hệ thống trí tuệ nhân tạo của mình với các hệ thống trí tuệ nhân tạo khác thông qua việc xem xét tính đa dạng của các hệ thống nhằm tăng cường lợi ích của hệ thống, đồng thời tăng cường sự phối hợp để kiểm soát rủi ro.

Thứ 2, tính minh bạch: Các hệ thống trí tuệ nhân tạo tuân theo nguyên tắc này thường là các hệ thống có thể ảnh hưởng đến tính mạng, thân thể, quyền riêng tư hoặc tài sản của người dùng hoặc bên thứ ba liên quan. Khi đó, các nhà phát triển cần chú ý đến khả năng xác định rõ các đầu vào và đầu ra của hệ thống cũng như khả năng giải thích liên quan dựa trên các đặc điểm của công nghệ được áp dụng và cách sử dụng chúng để đảm bảo có sự tin tưởng của xã hội, bao gồm cả người dùng.

Thứ 3, khả năng kiểm soát: Để đánh giá các rủi ro liên quan đến khả năng kiểm soát của hệ thống, các nhà phát triển cần thực hiện đánh giá trước liệu hệ thống có đáp ứng các yêu cầu kỹ thuật và tiêu chuẩn tương ứng. Một trong những phương pháp đánh giá rủi ro là thử nghiệm trong một không gian riêng đã có các biện pháp đảm bảo an ninh, an toàn trước khi đưa vào áp dụng thực tế.

Thứ tư, nguyên tắc an toàn: Nhà phát triển cần đảm bảo hệ thống trí tuệ nhân tạo sẽ không gây tổn hại đến tính mạng, thân thể hoặc tài sản của người dùng hoặc bên thứ ba kể cả thông qua trung gian.

Thứ 5, nguyên tắc bảo mật: Bên cạnh việc tuân thủ các văn bản, hướng dẫn và thực hiện các biện pháp bảo mật thông tin theo quy định, các nhà phát triển cần chú ý đến những điểm như: Độ tin cậy và khả năng chống chịu các dạng tấn công hoặc tai nạn vật lý của hệ thống; tính bảo mật; sự toàn vẹn; và tính khả dụng của các thông tin cần thiết liên quan đến sự an toàn thông tin của hệ thống…

Thứ 6, quyền riêng tư: Các nhà phát triển cần đảm bảo hệ thống trí tuệ nhân tạo không vi phạm quyền riêng tư của người dùng hoặc bên thứ ba. Quyền riêng tư bao gồm quyền riêng tư về không gian (sự yên bình trong cuộc sống cá nhân), quyền riêng tư về thông tin (dữ liệu cá nhân) và sự bí mật của việc thông tin liên lạc. Các nhà phát triển cần áp dụng các quy định, hướng dẫn hiện hành; có thể tham khảo các tiêu chuẩn, hướng dẫn quốc tế về quyền riêng tư.

Các nhà phát triển cần thực hiện đánh giá trước các rủi ro xâm phạm quyền riêng tư và tiến hành đánh giá trước các tác động đến quyền riêng tư. Trong phạm vi có thể, thực hiện các biện pháp phù hợp với đặc điểm của công nghệ được áp dụng trong suốt quá trình phát triển hệ thống để tránh xâm phạm quyền riêng tư khi đưa vào sử dụng.

Thứ bảy, tôn trọng quyền và phẩm giá con người: Khi phát triển các hệ thống trí tuệ nhân tạo có liên quan tới con người, các nhà phát triển phải đặc biệt quan tâm đến việc tôn trọng quyền và phẩm giá con người của các cá nhân liên quan. Trong phạm vi có thể, tùy theo đặc điểm của công nghệ được áp dụng, các nhà phát triển cần thực hiện các biện pháp để đảm bảo không gây ra sự phân biệt đối xử, không công bằng do thiên vị trong dữ liệu khi huấn luyện hệ thống.

Các nhà phát triển cần thực hiện các biện pháp phòng ngừa để đảm bảo hệ thống không vi phạm các giá trị của con người, đạo đức xã hội theo các nguyên tắc cơ bản của Việt Nam (ví dụ, các giá trị bao gồm yêu nước, đoàn kết, tự cường, nghĩa tình, trung thực, trách nhiệm, kỷ cương, sáng tạo…).

Thứ 8, hỗ trợ người dùng: Để hỗ trợ người dùng, các nhà phát triển hệ thống cần chú ý các điểm như: Tạo ra các giao diện sẵn sàng để cung cấp thông tin kịp thời và phù hợp nhằm giúp người dùng đưa ra quyết định và sử dụng thuận tiện; thực hiện các biện pháp giúp hệ thống dễ sử dụng hơn cho những người dễ bị tổn thương trong xã hội (người già, người khuyết tật)….

Thứ 9, trách nhiệm giải trình: Các nhà phát triển cần thực hiện trách nhiệm giải trình đối với các hệ thống mà họ đã phát triển để đảm bảo niềm tin của người dùng. Cụ thể, cần cung cấp cho người dùng thông tin để giúp họ lựa chọn và sử dụng hệ thống. Ngoài ra, để tăng sự chấp nhận của xã hội đối với các hệ thống các nhà phát triển nên thực hiện thêm: Cung cấp cho người dùng thông tin và mô tả về đặc tính kỹ thuật của hệ thống mà họ phát triển, các thuật toán, các cơ chế đảm bảo an toàn…; lắng nghe các quan điểm và đối thoại với các bên liên quan.

Theo nhandan.vn

Lượt xem: 113

Tin mới nhất:

Văn bản chỉ đạo điều hành
Chưa có video
Số lượt truy cập: 1896152- Đang online : 2628