Năm 2018, khi lãnh đạo công ty công nghệ khổng lồ Google quyết định ký kết triển khai Dự án Con Quạ, một dự án cung cấp công nghệ nhận dạng khuôn mặt cho Bộ Quốc phòng Mỹ, Google đã vấp phải một làn sóng phản đối dữ dội từ chính các nhân viên của mình.
Với sự phát triển như vũ bão của trí tuệ nhân tạo, người ta có sở cứ để tin rằng, vũ khí trí tuệ nhân tạo nguy hiểm hơn nhiều lần so với vũ khí được sử dụng bởi con người.
Nỗi lo của cha đẻ trí tuệ nhân tạo
Google, vốn được coi là môi trường làm việc lý tưởng của giới công nghệ, nay lại bị chính những người cộng sự quay lưng lại. Hàng trăm người đã ký tên phản đối, thậm chí viết đơn từ chức, khiến những người lãnh đạo công ty đành phải cho dừng việc hợp tác này lại. Nguyên nhân chính xuất phát từ sự lo ngại rằng, công nghệ nhận dạng khuôn mặt sử dụng trí tuệ nhân tạo có thể được sử dụng để xâm hại quyền con người và gây chiến tranh. Sự phản đối diễn ra không chỉ trong nội bộ Google, mà còn lan nhanh sang các công ty công nghệ lớn ở Thung lũng Silicon, khiến cho những ông chủ Google, Microsoft, Facebook phải nhanh chóng bàn bạc nội bộ và thể hiện quyết tâm xây dựng bộ quy tắc ứng xử cho trí tuệ nhân tạo, hay còn gọi cách khác là bộ quy tắc đạo đức của trí tuệ nhân tạo.
“Đạo đức của trí tuệ nhân tạo”, thực ra đã được người ta đề cập từ những năm 1970, khi mà lĩnh vực này mới được biết đến trong bốn bức tường của phòng thí nghiệm. Joseph Weizenbaum, một nhà khoa học máy tính, Giáo sư Đại học công nghệ Masachusset (MIT), được coi là một trong những người cha đẻ của trí tuệ nhân tạo, đã từng cho rằng, trí tuệ nhân tạo sẽ không được sử dụng để thay thế con người trong các công việc cần đến sự tôn trọng và chăm sóc, như dịch vụ chăm sóc khách hàng, trị liệu tâm lý, hộ lý chăm sóc người già, quân đội, công an, và quan tòa. Ông lý luận rằng, những người làm công việc này cần có sự quan tâm, thấu hiểu, sẻ chia. Nếu để máy móc làm những việc đó, con người sẽ có cảm giác bị xa lánh, bị mất giá trị, và vì vậy, trí tuệ nhân tạo sẽ làm ảnh hưởng đến phẩm giá của con người.
Nhưng đến nay, máy móc đã được sử dụng rộng rãi để chăm sóc khách hang. Một người kém hiểu biết về công nghệ nhất cũng có thể thấy được những câu hỏi đáp qua lại về một món đồ cần mua khi anh ta vào một trang web bán hàng online, chính là được “bắn” ra từ một “con” chatbot. Những kẻ thành thạo hơn một chút, đã biết tận dụng trợ lý ảo Google Assistant đặt lịch hẹn, phát nhạc hẹn giờ, nhắc nhở uống thuốc, hay chỉ đơn giản là… chuyện phiếm trong lúc rảnh rỗi. Google Assistant “buôn chuyện” duyên đến nỗi, nhiều người đã phải hốt hoảng thốt lên: “Máy móc làm được hết thế này, vậy trong tương lai, con người còn biết làm gì?”. Nỗi sợ hãi của cha đẻ trí tuệ nhân tạo Joseph Weizenbaum đúng là không thừa chút nào.
Sớm hơn nữa, vào những năm 1950, Isaac Asimov, một nhà văn người Mỹ và là Giáo sư hóa học tại Đại học Boston, trong tiểu thuyết giả tưởng “Tôi, người máy” (sau này được dựng thành bộ phim cùng tên, do Will Smith đóng vai chính), đã đặt ra ba quy luật với người máy.
Thứ nhất, người máy không được làm hại con người, hoặc thấy con người bị làm hại mà không hành động gì.
Thứ hai, người máy phải tuân theo mọi yêu cầu của con người, trừ khi yêu cầu đó mâu thuẫn với quy luật thứ nhất.
Thứ ba, người máy phải tự bảo vệ mình nếu như không bị mâu thuẫn với quy luật thứ nhất và thứ hai. Các quy luật này, dù xuất phát từ một tiểu thuyết giả tưởng, hợp lý đến nỗi, năm 2010, một ủy ban ở Anh đã được lập để xem xét chúng và quy trách nhiệm của trí tuệ nhân tạo là thuộc về nhà sản xuất, người chủ hoặc người vận hành nó. Người ta lo ngại rằng, khi máy móc đươc “huấn luyện” để tư duy nhận thức như con người, nó sẽ vượt ngoài tầm kiểm soát của chính những người tạo ra nó.
Chúng ta đều biết rằng, trong vũ trụ, con người chính là dòng giống thông minh nhất, hơn hẳn các loài vật khác vì con người có thể tạo ra và sử dụng công cụ để điều khiển các con vật. Công cụ có thể là công cụ vật lý như lồng để nhốt, roi để đánh, và công cụ cũng có thể là công cụ nhận thức như huấn luyện và tập cho phản xạ có điều kiện. Điều gì sẽ xảy ra nếu khi máy móc trở nên thông minh hơn chúng ta và chúng ta không thể điều khiển được chúng? Cách đơn giản nhất liệu có phải là rút dây cắm điện? Chưa biết chuyện đó có xảy ra hay không và xảy ra như thế nào, nhưng năm 2017, Facebook, vốn tiên phong trong phát triển trí tuệ nhân tạo, đã thực sự phải “tắt” AI vì chúng đã tự tạo ra và giao tiếp với nhau bằng thứ ngôn ngữ riêng mà chính các nhà nghiên cứu cũng không thể hiểu được.
Năm 2017, Facebook, vốn tiên phong trong phát triển trí tuệ nhân tạo, đã thực sự phải “tắt” AI vì chúng đã tự tạo ra và giao tiếp với nhau bằng thứ ngôn ngữ riêng mà chính các nhà nghiên cứu cũng không thể hiểu được.
Máy móc vô tình
Trí tuệ nhân tạo giờ đây cũng đang được ứng dụng vào những lĩnh vực đòi hỏi sự minh bạch, rõ ràng, như ngân hàng chẳng hạn. Nếu con người đứng ra xét duyệt hồ sơ vay vốn sẽ rất dễ xảy ra tham nhũng hoặc thiên vị, người quen sẽ dễ dàng được duyệt khoản vay lớn hơn người lạ, duyệt hồ sơ nhanh hơn, ít bị “hành” hơn. Và các thuật toán học máy đã được áp dụng để đánh giá độ tín nhiệm của khách hàng. Dựa trên hàng nghìn thông tin về một khách hàng, như lịch sử tín dụng, trình độ học vấn, độ tuổi, nghề nghiệp, quê quán, mối quan hệ… máy móc sẽ thực hiện tính toán, sử dụng các thuật toán phân loại phức tạp như cây quyết định, mạng nơ ron phức hợp… để tính điểm, đánh giá độ tín nhiệm của khách hàng, từ đó ra quyết định có cho vay hay không và cho vay bao nhiêu tiền.
Vậy chuyện gì sẽ xảy ra, nếu như một ngày, có một khách hàng bị từ chối khoản vay đâm đơn kiện ngân hàng vì thuật toán họ sử dụng có dấu hiệu phân biệt chủng tộc? Ngân hàng đương nhiên sẽ không chấp nhận, vì họ cho rằng, máy móc rất trong sáng, vô tư, hoàn toàn không có chuyện “quen biết”, và máy cũng không hề biết người vay ở đâu, màu da gì để mà phân biệt đối xử. Nhưng các số liệu thống kê lại cho thấy, quả thật tỷ lệ người da trắng được vay tiền cao hơn hẳn so với người da đen. Nếu vậy, máy móc có thật sự trong sáng, thật sự vô tư? Để trả lời câu hỏi này không hề đơn giản. Có thể khi phân tích dữ liệu của khách hàng, thuật toán không tính đến yếu tố màu da, nhưng nếu sử dụng dữ liệu về địa chỉ, cũng có thể xảy ra trường hợp, những khu dân cư tập trung nhiều người da màu có lịch sử tín dụng thấp, sẽ làm ảnh hưởng đến việc phân tích và ra quyết định của máy. Và trong trường hợp này, trí tuệ nhân tạo đã “vô tình” phân biệt chủng tộc đối với khách hàng.
Nhưng lo ngại lớn nhất với trí tuệ nhân tạo vẫn là khi nó được sử dụng trong quân đội. Các chuyên gia hết sức quan ngại việc sử dụng người máy trong chiến tranh, đặc biệt là khi nó được trang bị chức năng tự động hóa. Có nghĩa là, dựa trên các phân tích và phán đoán trên trận đánh, người máy có thể đưa ra quyết định ảnh hưởng đến sinh mạng con người. Thực tế là trong vài chục năm qua, nhiều chính phủ đã không ngần ngại rót vốn vào các dự án nghiên cứu máy bay không người lái trang bị vũ khí. Với sự phát triển như vũ bão của trí tuệ nhân tạo, người ta có sở cứ để tin rằng, vũ khí trí tuệ nhân tạo nguy hiểm hơn nhiều lần so với vũ khí được sử dụng bởi con người. Rất có thể, một cuộc chạy đua vũ trang sẽ diễn ra, khốc liệt hơn bao giờ hết.
Quay trở lại với Google. Năm 2014, khi công ty này mua Deepmind, phòng lab về AI tối tân nhất thế giới, họ đã đồng ý thiết lập một hội đồng quan sát bên ngoài nhằm đảm bảo các nghiên cứu AI sẽ không bị sử dụng trong chiến tranh, trong quân đội hay những dự án có quan ngại về đạo đức. Nhưng 5 năm sau, chính Google lại đặt bút ký hợp đồng với Lầu Năm Góc, cung cấp công nghệ lõi của mình cho quân đội, và chỉ khi vấp phải sự phản đối quyết liệt của đội ngũ kỹ sư, lãnh đạo công ty này mới chịu từ bỏ hợp đồng béo bở này.
Nhưng vắng cô thì chợ vẫn đông, Google không tham gia, thì vẫn đang có cả trăm công ty công nghệ khác vẫn đang làm ngày làm đêm cho các dự án quốc phòng của Mỹ và nhiều nước khác. Họ có thể viện ra hàng chục lý do, như mong muốn bảo vệ đất nước khỏi chiến tranh, các giải pháp giảm sát chỉ giúp đảm bảo an toàn hơn cho người dân mà thôi, hoặc công ty cần có doanh thu để tồn tại… nhưng sự lo lắng rõ ràng vẫn hiện hữu cả ở trong và ngoài giới công nghệ. Con người làm cho máy móc thông minh hơn, ứng dụng rộng rãi hơn, nhưng con người cũng rất có thể sẽ bị đe dọa bởi máy móc...