Thứ Ba, 2 tháng 4, 2024

Đâu là những cái giá phải trả khi phát triển Trí tuệ nhân tạo (AI) ?

Đâu là những cái giá phải trả khi phát triển Trí tuệ nhân tạo (AI) ?
Năm 2023 nhân loại đã chứng kiến sự thâm nhập sâu rộng của trí tuệ nhân tạo (AI) vào trong nhiều lĩnh vực của đời sống. Lúc đầu, nhiều người sử dụng những công cụ AI vì tò mò hoặc giải trí. Giờ đây, họ cần AI tổng hợp trong nghiên cứu, đưa ra lời khuyên hoặc tìm kiếm tổng hợp thông tin.

Theo thống kê của báo Anh Conversation, 4/5 thanh thiếu niên ở Anh sử dụng công cụ AI, 2/3 nhân viên Úc cho biết sử dụng AI cho công việc. Một số nhạc sĩ sử dụng tính năng nhân bản giọng nói AI để tạo ra các ca sỹ ảo có chất giọng như như Eminem. Google ra mắt chatbot có tên Bard. Microsoft tích hợp AI vào công cụ tìm kiếm Bing. Snapchat đã ra mắt MyAI, một công cụ hỗ trợ ChatGPT cho phép người dùng đặt câu hỏi và nhận gợi ý...

ChatGPT, chatbot là công cụ AI bùng nổ ghi dấu ấn lớn nhất trong năm 2023. Chỉ vài tháng đã trở thành một cái tên quen thuộc, và đã đạt được số lượng người dùng 100 triệu vào tháng 2 năm 2023, gấp khoảng bốn lần dân số Úc.

Theo xu hướng này, sự phụ thuộc vào AI sẽ ngày càng tăng, cái giá phải trả là gì?

1. Nguy cơ thất nghiệp tăng cao

Trí tuệ nhân tạo đã khiến 800 triệu công việc không cần sử dụng đến con người, dẫn đến hàng loạt bất ổn về kinh tế, xã hội, theo một báo cáo của McKinsey. Không khó để nhận ra nhiều vị trí lao động phổ thông đang dần bị thay thế bởi máy móc, tự động hóa, ví dụ như tiếp thị hay chăm sóc sức khỏe.

Có lẽ trong tương lai AI có khả năng thay thế cả những công việc đòi hỏi bằng cấp cao.

2. Rò rỉ thông tin cá nhân

Trí tuệ nhân tạo thu thập thông tin cá nhân qua việc người dùng sử dụng chatbot AI hoặc bộ lọc khuôn mặt AI trực tuyến. AI sẽ sử dụng các thông tin này để tùy chỉnh trải nghiệm người dùng hoặc phục vụ cho mục đích đào tạo các mô hình trí tuệ nhân tạo. 

Nhiều chính phủ cũng như các công ty công nghệ cũng ban hành nhiều chính sách bảo mật thông tin, tuy nhiên không có gì là tuyệt đối cả. Vẫn còn rất nhiều thành phần xấu ứng dụng trí tuệ nhân tạo đánh cắp thông tin của người dùng.

3. Gia tăng bất bình đẳng xã hội

Trí tuệ nhân tạo có thể phát triển những phần mềm dựa trên đặc điểm khuôn mặt, giọng nói, những yếu tố mang đậm thành kiến chủng tộc, để tạo ra những ứng dụng phân biệt đối xử.

AI có thể khoét sâu thêm khoảng cách giàu nghèo, khi tạo ra những ứng dụng phát triển các phương pháp điều trị y tế hay giáo dục mới. Tuy nhiên những phương pháp này vượt quá khả năng chi trả của người có thu nhập thấp.

4. Ảnh hưởng đến đạo đức của nhân loại

Nhiều nhà nghiên cứu, nhà báo, chính trị gia đã gióng lên hồi chuông cảnh báo về tác động tiêu cực của AI lên đạo đức của nhân loại khi chúng có khả năng truyền bá những ý kiến thiên vị và dữ liệu sai lệch.

5. Làm con người ngày càng trở nên cô độc, không có nhu cầu giao tiếp thực

Việc AI có thể đưa ra các tư vấn trên nhiều lĩnh vực, từ việc văn phòng, kinh doanh, thậm chí đến cả tâm lý, đã tạo nên những tương tác vô cùng gần gũi, khiến con người dần trong vô thức có thể coi AI là bạn.

Tuy nhiên máy móc chỉ là những công cụ được thiết kế nhằm thực hiện những nhiệm vụ theo hướng dẫn. Chúng vĩnh viễn không thể có cảm xúc hay suy nghĩ như con người. Việc phụ thuộc cả về mặt tâm lý vào máy móc sẽ khiến con người ngày càng co mình trong những giao tiếp thực giữa người với người, từ đó trở nên cô đơn.

6. Bài học cảnh giác

AI là xu thế nên không thể dừng việc phát triển và cũng rất khó để có thể kiểm soát hiệu quả. Để giảm thiểu những nguy cơ, rủi ro của AI, mỗi cá nhân chúng ta cần chú ý sử dụng nó một cách có trách nhiệm, cẩn trọng hơn nữa trong việc bảo mật thông tin cá nhân, và không ngừng trau dồi bản thân để có kiến thức và hiểu biết sâu rộng hơn.
-----------------

8 nguy cơ trí tuệ nhân tạo có thể gây ra với loài người

Khách tham quan tương tác với robot trong một sự kiện AI ở Trung Quốc_Ảnh: THX
Trí tuệ nhân tạo (AI) đang ngày càng tinh vi và phổ biến hơn. Đồng thời, những tiếng nói cảnh báo nhiều nguy cơ tiềm ẩn của nó cũng ngày càng nhiều.

Ông hoàng vật lý Stephen Hawking nói: “sự phát triển của trí tuệ nhân tạo có thể đánh dấu sự kết thúc của loài người”. Elon Musk - người sáng lập Tesla và SpaceX - phát biểu tại Hội nghị công nghệ SXSW: “ AI làm tôi sợ chết khiếp. Nó có khả năng làm được nhiều hơn những gì mà hầu hết mọi người đều biết và tốc độ cải thiện là theo cấp số nhân”. Những gì chúng ta chứng kiến mới chỉ là giai đoạn đầu của AI. Vậy, vì sao những bộ óc vĩ đại của loài người lại e ngại AI đến như vậy?

1. Lấy mất việc làm của con người

AI đang được áp dụng nhiều trong các ngành như tiếp thị, chăm sóc sức khỏe, sản xuất. Dự kiến AI sẽ chiếm mất 85 triệu việc làm từ năm 2020 đến năm 2025, trong đó việc làm của các lao động người da màu đặc biệt dễ bị tổn thương. “Lý do chúng ta có tỷ lệ thất nghiệp thấp phần lớn là do nền kinh tế này tạo ra các công việc lương thấp trong lĩnh vực dịch vụ”, nhà tương lai học Martin Ford nói. “Tôi không nghĩ điều đó sẽ tiếp tục”. Khi robot AI trở nên thông minh hơn và khéo léo hơn, các công việc tương tự sẽ cần ít nhân lực hơn. Mặc dù AI cũng cho phép tạo ra tới 97 triệu việc làm mới vào năm 2025, nhưng nhiều lao động sẽ không có các kỹ năng cần thiết cho các vai trò kỹ thuật này và có thể bị bỏ lại phía sau.

“Nếu bạn đang lật bánh mì kẹp thịt ở McDonalds, mà công việc mới đòi hỏi nhiều kỹ năng khác phải qua đào tạo, hoặc thậm chí có thể là năng khiếu như giao tiếp, hoặc sức sáng tạo thực sự mạnh mẽ, thì bạn có đáp ứng nổi không? Đó là những thứ mà ít nhất cho đến nay, AI còn chưa giỏi lắm”. Ngay cả những ngành nghề yêu cầu bằng đại học hay sau đại học cũng không tránh khỏi sự đe dọa của AI. Chiến lược gia công nghệ Chris Messina đã chỉ ra, AI sẽ tiếp quản các lĩnh vực như luật, kế toán. AI đã và đang có tác động đáng kể đến y học. Messina phân tích: “hãy nghĩ về sự phức tạp của các hợp đồng. Các luật sư phải đọc qua rất nhiều thông tin, hàng trăm hoặc hàng nghìn trang dữ liệu và tài liệu, nên rất dễ bị bỏ sót. AI có khả năng kết hợp và cung cấp một cách toàn diện hợp đồng tốt nhất có thể. AI có lẽ sẽ thay thế rất nhiều luật sư”.

2. Thao túng xã hội bằng các thuật toán AI

Một báo cáo năm 2018 đã đánh giá khả năng lạm dụng AI thao túng xã hội là một trong những mối nguy hiểm hàng đầu của trí tuệ nhân tạo. Mối lo ngại này đã trở thành hiện thực: Ferdinand Marcos, Jr. đã sử dụng “đội quân troll TikTok” để giành phiếu bầu của những người Philippines trẻ tuổi trong cuộc bầu cử năm 2022. Thuật toán AI của TikTok bị nghi ngờ về khả năng bảo vệ người dùng khỏi các nội dung nguy hiểm và sai lệch.

Các vụ tin tức deep-fake (tin giả sử dụng công nghệ tinh vi thay thế hình ảnh trong các bức ảnh và video) đang ngày càng nhiều. Công nghệ tạo điều kiện cho kẻ xấu lan truyền các tin tức giả, sai lệch, tạo ra các kịch bản ác mộng mà nhiều người tiếp nhận gần như không thể phân biệt được thật giả. Martin Ford nói: “không ai biết cái gì là thật và cái gì không. Thực tế đã xuất hiện tình huống bạn thực sự không thể tin vào mắt và tai của chính mình; bạn không thể dựa vào những thứ có thể được coi là bằng chứng tốt nhất”.

3. AI giám sát xã hội

Martin Ford còn cảnh báo về cách AI ảnh hưởng xấu đến quyền riêng tư và bảo mật. Một ví dụ là việc Trung Quốc sử dụng công nghệ nhận diện trong văn phòng, trường học và các địa điểm khác. Bằng cách này, nhà nước có thể thu thập đủ dữ liệu để giám sát các hoạt động, mối quan hệ và quan điểm chính trị của một người. Một ví dụ khác là các sở cảnh sát Mỹ áp dụng những thuật toán để dự đoán nơi tội phạm sẽ xảy ra. Các thuật toán này bị ảnh hưởng bởi tỷ lệ bắt giữ, do đó nó gây ảnh hưởng nặng nề đến cộng đồng người da màu. Thuật toán gợi ý cho cảnh sát tăng mức kiểm soát đến độ quá mức với các cộng đồng đó. Người ta phải đặt ra câu hỏi liệu có thể ngăn chặn việc biến AI thành vũ khí độc đoán hay không, và liệu có cần thiết đặt ra các hạn chế với nó?

4. AI tạo ra thành kiến

Phát biểu với tờ New York Times, Giáo sư khoa học máy tính của Princeton, Olga Russakovsky, cho biết AI tạo ra sự thiên vị vượt xa cả giới tính và chủng tộc. Ngoài dữ liệu và sai lệch thuật toán (cái sau có thể “khuếch đại” cái trước), AI được phát triển bởi con người, mà con người vốn đã có thành kiến. Russakovsky giải thích: “các nhà nghiên cứu về AI chủ yếu là nam giới, xuất thân từ một số chủng tộc nhất định, lớn lên ở các khu vực kinh tế - xã hội cao, chủ yếu là những người không bị khuyết tật. Vì vậy, thật khó để suy nghĩ rộng rãi về các vấn đề thuộc các giới khác nhau”.

Kinh nghiệm hạn chế của những người tạo AI có thể giải thích tại sao AI nhận dạng giọng nói thường không hiểu một số phương ngữ và giọng nhất định, hoặc tại sao các công ty không xem xét hậu quả của việc một chatbot mạo danh những người nổi tiếng trong lịch sử.

5. AI gia tăng bất bình đẳng kinh tế - xã hội

Trong tình trạng mất việc làm nói chung do AI gây ra cũng tồn tại sự bất bình đẳng, cho thấy những thành kiến giai cấp trong cách ứng dụng AI. Những công nhân cổ xanh thực hiện các công việc thủ công bị giảm lương tới 70% do áp dụng tự động hóa. Trong khi đó, lao động cổ cồn trắng hầu như không bị ảnh hưởng, thậm chí một số người còn được hưởng mức lương cao hơn.

AI bằng cách nào đó đã vượt qua các ranh giới xã hội hoặc tạo ra nhiều việc làm hơn, nhưng đó chưa phải bức tranh hoàn chỉnh về các tác động của nó. Điều quan trọng là phải tính đến sự khác biệt dựa trên chủng tộc, đẳng cấp. Mặt khác, rõ ràng nhóm người hiểu rõ AI sẽ thu được lợi ích nhiều hơn, nhưng với hệ quả gây thiệt hại cho những người khác, khiến nhóm khác trở nên khó khăn hơn.

6. Đạo đức bị suy giảm

Ngay cả các nhà lãnh đạo tôn giáo cũng đang gióng lên hồi chuông cảnh báo về những cạm bẫy kinh tế - xã hội tiềm tàng của AI. Trong một cuộc họp ở Vatican năm 2019 có tiêu đề “Lợi ích chung trong thời đại kỹ thuật số”, Giáo hoàng Francis đã cảnh báo về khả năng của AI trong việc “lưu hành các ý kiến thiên vị và dữ liệu sai lệch” và nhấn mạnh những hậu quả sâu rộng của việc để công nghệ này phát triển mà không có sự giám sát hoặc hạn chế thích hợp. Giáo hoàng nói: “nếu cái gọi là tiến bộ công nghệ của nhân loại trở thành kẻ thù của lợi ích chung, điều này sẽ dẫn đến một sự thụt lùi đáng tiếc. Sẽ có một hình thức man rợ được quy định bởi luật kẻ mạnh nhất”.

Và cho dù có bao nhiêu người chỉ ra sự nguy hiểm của AI, chúng ta vẫn sẽ tiếp tục sử dụng nó nếu có tiền. “Tâm lý là, nếu chúng ta có thể làm điều đó, chúng ta nên thử nó, rồi chờ xem điều gì xảy ra”, Messina nói. “Và nếu chúng ta có thể kiếm tiền từ nó, chúng ta sẽ làm cả đống việc như thế”.

7. AI tạo ra vũ khí tự động nguy hiểm

Xưa nay, những tiến bộ công nghệ đều được khai thác cho mục đích chiến tranh. Với AI, một số người muốn ngăn chặn khả năng này trước khi quá muộn: trong một bức thư ngỏ năm 2016, hơn 30.000 cá nhân bao gồm cả các nhà nghiên cứu AI đã phản đối việc đầu tư vào vũ khí sử dụng AI. Bức thư có đoạn: “câu hỏi quan trọng đối với nhân loại ngày nay là nên bắt đầu một cuộc chạy đua vũ trang AI toàn cầu hay ngăn chặn nó bắt đầu. Nếu bất kỳ cường quốc quân sự nào đẩy mạnh phát triển vũ khí AI, một cuộc chạy đua vũ trang toàn cầu hầu như không thể tránh khỏi và điểm cuối của quỹ đạo công nghệ này là hiển nhiên: vũ khí tự động sẽ phổ biến như súng Kalashnikov trong tương lai”.

Dự đoán này đã trở thành hiện thực dưới dạng hệ thống vũ khí tự động, tự xác định vị trí và tiêu diệt mục tiêu. Do sự phổ biến của vũ khí mạnh và phức tạp, một số quốc gia hùng mạnh nhất thế giới đã góp phần vào một cuộc Chiến tranh lạnh công nghệ. Mối nguy hiểm sẽ còn lớn hơn nếu vũ khi rơi vào tay kẻ xấu. Tin tặc đã thành thạo nhiều loại tấn công mạng, vì vậy không khó để tưởng tượng một tác nhân độc hại xâm nhập vào hệ thống vũ khí tự động và gây ra chiến tranh.

8. Khủng hoảng tài chính do AI

Ngành tài chính là một trong những ngành dễ dàng đón nhận sự tham gia của công nghệ AI vào các quy trình giao dịch hằng ngày. Cũng vì vậy, giao dịch bằng thuật toán có thể sẽ là nguyên nhân gây ra cuộc khủng hoảng tài chính lớn tiếp theo. Mặc dù các thuật toán AI không bị tác động bởi phán đoán hoặc cảm xúc của con người, nhưng chúng cũng có thiếu sót do không tính đến bối cảnh, tính liên kết của thị trường và các yếu tố như lòng tin và nỗi sợ hãi của con người. Nhưng các thuật toán vẫn thực hiện hàng nghìn giao dịch với tốc độ chóng mặt, với mục tiêu bán sau vài giây để kiếm lợi nhuận nhỏ. Việc bán tháo hàng nghìn giao dịch có thể khiến các nhà đầu tư sợ hãi làm điều tương tự, dẫn đến sự cố đột ngột và thị trường biến động cực độ.

Các trường hợp như đã từng xảy ra như vụ Flash Crash (xảy ra trên thị trường tài chính Mỹ năm 2010) hay sự cố lỗi phần mềm trị giá 440 triệu USD tại tập đoàn Knight Capital năm 2012 là những lời nhắc nhở về những gì có thể xảy ra khi các thuật toán thỏa mãn giao dịch trở nên “điên cuồng”./.

https://hssk.tapchicongsan.org.vn/bai-viet/chuyen-sau/8-nguy-co-tri-tue-nhan-tao-co-the-gay-ra-voi-loai-nguoi-post57.html

Không có nhận xét nào:

Đăng nhận xét