AI nào cho trường đại học (Kỳ 1): Ba điều bất ổn của AI
Ngày đăng: 10/09/2025 11:01
Hôm nay: 0
Hôm qua: 0
Trong tuần: 0
Tất cả: 0
Ngày đăng: 10/09/2025 11:01
Đối với một số người, những năng lực không thể chối cãi của trí tuệ nhân tạo (AI) đặt ra câu hỏi về lý do tồn tại của các trường đại học. Nhưng thực tế có đúng như vậy không hay bản thân sự sống còn của các công nghệ AI cũng phụ thuộc vào các trường đại học?
Có nhiều ý kiến khác nhau: một số người cho rằng sự thâm nhập mạnh mẽ của AI đang lung lạc mục đích sống, làm giảm giá trị của các kỹ năng và năng lực vốn thuộc về con người, cũng như làm suy yếu các giá trị đạo đức, quyền và tự do cơ bản. Bên cạnh đó lại có những người lạc quan, coi AI chỉ đơn giản là bước tiếp theo của tiến bộ kỹ thuật số, thay thế những hạn chế của con người bằng các phản hồi nhanh, hiệu quả và được cá nhân hóa ở mức độ cao để đáp ứng nhu cầu của người dân, doanh nghiệp và cơ sở giáo dục.
AI không xuất phát từ các tập đoàn, doanh nghiệp lớn ngay từ đầu, mà từ chính môi trường giáo dục đại học, phần lớn là từ các công ty khởi nguồn (spin-off) của các trường ở Mỹ, Anh và Trung Quốc – những phát minh, nghiên cứu của họ sau này mới thu hút nguồn vốn đầu tư mạo hiểm khổng lồ của các tập đoàn, doanh nghiệp. Do đó, các trường đại học không thể coi AI là “yếu tố bên ngoài” mà họ phải hàng phục hay thích ứng.
Nếu các trường đại học muốn đảm bảo sự tồn tại của chính mình và trách nhiệm đối với xã hội nói chung, họ cần sớm đưa ra lập trường rõ ràng, dung hòa giữa tính hữu ích đã được chứng minh của AI trong khoa học, công nghệ và y học, với những nguy cơ gây tổn hại tiềm ẩn xét từ góc độ nhận thức, xã hội và chính trị.
Tuy nhiên, cần lưu ý rằng chúng ta có thể đang hiểu chưa đúng về cách thức vận hành cũng như điều kiện tồn tại của AI. Thực tế, một tương lai gắn liền với AI sẽ đòi hỏi nhiều hơn, chứ không phải ít đi, những gì các trường đại học hiện đang cung cấp.
Cái giá của AI
Một trong những khía cạnh đáng lo ngại, thiếu bền vững của AI là mức tiêu thụ tài nguyên hoang phí của nó. Mỗi ngày, Google xử lý khoảng 9 tỷ lượt truy vấn tìm kiếm với sự hỗ trợ của AI, và ước tính mỗi truy vấn như vậy tiêu tốn từ 7–9 wh điện, tương đương với việc bật một bóng đèn 100 watt trong năm phút rưỡi. Ngành công nghiệp AI rất kín tiếng về mức tiêu thụ điện và nước ngọt [để làm mát hệ thống máy chủ – nơi lưu trữ và vận hành các mô hình AI lớn], khiến chúng ta không thể kiểm chứng những ước tính như vậy. Nhưng rõ ràng nó đang tiêu thụ tài nguyên ngang cả một quốc gia, thậm chí còn thúc đẩy sự hồi sinh của ngành công nghiệp điện hạt nhân quốc tế vốn trước đó đang trì trệ.
Về mặt tài chính, AI có vẻ rẻ hoặc gần như miễn phí nhờ dòng vốn đầu tư mạo hiểm cấp tập đổ vào, điển hình như SoftBank đầu tư 40 tỷ USD cho OpenAI trong quý I/2025. Tuy nhiên, khi các nhà đầu tư bắt đầu tìm kiếm lợi nhuận, chi phí sử dụng AI sẽ tăng mạnh. Các doanh nghiệp và trường đại học phụ thuộc vào AI cần chuẩn bị cho gánh nặng tài chính này.
Nhưng không phải tất cả các AI đều giống nhau. Về cơ bản, có hai loại AI trên thị trường: AI Hẹp (Narrow AI hay AI chuyên biệt theo nhiệm vụ) và AI Tổng quát (General AI). AI Hẹp được thiết kế để thực hiện các nhiệm vụ cụ thể, đòi hỏi thời gian gấp rút hoặc vượt quá khả năng của người thường: chẩn đoán ung thư, phát hiện thuốc, nhận diện mặt hay AI “thần đồng” AlphaFold của DeepMind với khả năng dự đoán chính xác cấu trúc 3D cuối cùng của protein do chuỗi axit amin tự gấp lại thành.
Ngược lại, các chương trình AI Tổng quát được thiết kế để giải quyết bất kỳ vấn đề nào có thể hình thức hóa, bao gồm AI tạo sinh và các mô hình ngôn ngữ lớn như ChatGPT, Lama, Cohere và Gemini. Đây thường là những AI mà sinh viên yêu thích sử dụng để viết bài luận, và các công ty sử dụng để tạo ra giao diện chuyên biệt cho các nhiệm vụ như lập thời khóa biểu, quản lý công việc và xử lý phỏng vấn. Nhìn chung, AI Hẹp thực hiện những công việc mà con người có thể không làm được, trong khi AI Tổng quát thực hiện những công việc mà con người có thể và có lẽ nên làm.
Các AI Hẹp sử dụng cơ sở dữ liệu tương đối nhỏ, chỉ khai thác chất liệu liên quan đến nhiệm vụ được giao: ngay cả một AI Hẹp có quy mô hoành tráng như Alphafold cũng chỉ được đào tạo dựa trên 147.000 dữ liệu thực nghiệm đã biết về cấu trúc 3D của protein. Để so sánh, AI Tổng quát có cơ sở dữ liệu khổng lồ: AI Lama 4 Behemoth của Meta, hiện vẫn trong quá trình phát triển, ước tính sử dụng cơ sở dữ liệu đào tạo gồm 30 nghìn tỷ điểm dữ liệu.
Do đó, các trường đại học nên suy nghĩ nghiêm túc không chỉ về việc có nên áp dụng AI hay không, mà cả việc sử dụng loại AI nào và cho mục đích gì, đồng thời lường trước những biến động mạnh về chi phí và khả năng tiếp cận khi giai đoạn đầu tư mạo hiểm kết thúc.
Nhu cầu của AI
Vấn đề phát triển bền vững thứ hai nằm ở việc AI sử dụng các nguồn lực trí tuệ. Có xu hướng coi AI như một công cụ đủ mạnh và độc lập để thay thế chuyên gia con người trong các công việc đào tạo, tổ chức, phân tích. Nỗi lo AI sẽ thay thế con người xuất phát từ tư duy ‘được-mất, thắng - thua’. Nhưng đó là cách hiểu sai về hoạt động của AI. AI không phải là một thực thể độc lập; nó chỉ tái sử dụng những dữ liệu, kiến thức mà con người tạo ra.
Mặc dù AI không sao chép y nguyên mà chắc chắn đã biến đổi và tăng cường dữ liệu cơ bản có trong các cơ sở dữ liệu huấn luyện để tạo ra kết quả, nhưng nó vẫn chỉ hoạt động trong một hệ sinh thái thông tin vốn cần đến nguồn lực con người chất lượng cao để duy trì. Điều này có nghĩa là AI bản chất mang tính điều khiển học: nếu ví AI như một bộ não, thì chúng ta – con người – chính là các neuron của nó, mà những dữ liệu do các “neuron” này tạo ra được các chức năng điều hành trong thuật toán AI tập hợp và phối hợp lại để giải quyết những nhiệm vụ cụ thể. AI không phải là một ‘thực thể xa lạ’; nó chính là chúng ta, nhưng đã được biến đổi và khuyếch đại.
Sự phụ thuộc vào dữ liệu do con người tạo ra là liên tục và bắt buộc mỗi khi AI thực hiện một phép tính. Nhu cầu này lớn đến mức đang bắt đầu thách thức hệ thống luật sở hữu trí tuệ hiện hành. Đề xuất của Chính phủ Anh nhằm thay đổi luật bản quyền để cho phép AI khai thác dữ liệu từ các tài sản trí tuệ vốn được bảo hộ trước đây đã vấp phải sự phản đối quyết liệt từ cơ quan lập pháp. Việc Meta sử dụng tài sản trí tuệ từ thư viện “hải tặc” LibGen ở Nga đã dẫn đến các vụ kiện tập thể của các hiệp hội xuất bản, nhà văn, nghệ sĩ quốc tế... Kể từ năm 2016, hơn 30 quốc gia đã ban hành luật riêng dành cho AI, tạo ra một bối cảnh pháp lý thay đổi nhanh chóng. Ở cấp độ xã hội sâu hơn, ngày càng thêm nhiều nghệ sĩ và nhà văn rút khỏi không gian số để bảo vệ tác phẩm của họ không bị khai thác trái phép.
Vấn đề ở đây rất rõ ràng: phần lớn dữ liệu chất lượng cao mà AI cần để hoạt động hiệu quả được tạo ra bởi con người, xuất phát từ nhu cầu kiếm thu nhập, sự công nhận hoặc nhu cầu thể hiện cá nhân. Nếu AI làm suy yếu những động lực này thì chính năng suất của nó cũng bị đe dọa. Do đó, chính sách quốc gia về AI cần quan tâm không chỉ đến nhu cầu dữ liệu của doanh nghiệp AI, mà cả hệ sinh thái con người – nguồn sản sinh ra dữ liệu. Nếu hệ sinh thái này tan rã, AI sẽ nhanh chóng đình trệ.
Gót chân Achilles của AI
Vấn đề thứ ba về tính bền vững của AI xuất phát từ chính xu hướng dễ mắc lỗi của nó, hay được gọi là vấn đề tự thực. Theo quan điểm của nhiều nhà khoa học và nhà thiết kế AI, tự thực là mối đe dọa sống còn đối với sự phát triển của AI, đặc biệt khi công nghệ này đang thống trị thị trường.
Bất kỳ phép tính nào của AI cũng bao hàm những sai số tinh vi, và nhiều sai số trong số đó lại là một phần tất yếu để nó hoạt động hiệu quả. Điều này có vẻ phản trực giác, nhưng ngay cả một AI tạo sinh tạo ra những câu trả lời vô cùng hữu ích và chính xác về mặt kỹ thuật thì thực chất vẫn có sự biến đổi thông qua các quy tắc thống kê và ngôn ngữ học từ ‘hậu trường dữ liệu’ của nó. Cũng giống như một bức ảnh phong cảnh không bao giờ là chính phong cảnh được chụp, các kết quả tổng hợp do AI cung cấp không phải là thông tin ‘nguyên bản’ dùng để huấn luyện nó, mà trong đó luôn ẩn chứa những “quy tắc” thuật toán và thống kê riêng.
Những “lỗi” như vậy ban đầu rất khó nhận thấy, và hầu như không ảnh hưởng đến độ chính xác mà AI đạt được trong thực tế sử dụng. Tuy nhiên, sự hiện diện của chúng trở nên quan trọng khi con người dùng AI hằng ngày, và các dịch vụ AI ngày càng đảm nhận nhiều phần hơn trong công việc thường nhật của chúng ta. Đến lượt mình, các kết quả tổng hợp của AI lại được dùng để bổ sung cho cơ sở dữ liệu của nó. Vì không dễ phân biệt các nội dung do AI tạo ra, nên ở vòng xử lý tiếp theo, AI coi các kết quả tổng hợp như thể do con người tạo ra. Hiện tượng “tự sản tự tiêu” (tự thực) này đồng nghĩa với việc các lỗi và biến đổi tiềm ẩn trong kết quả ban đầu dần chồng chất, cuối cùng là theo cấp số nhân, khi các vòng tổng hợp dữ liệu cứ thế tiếp nối.
Tác động của tự thực đã được chính cộng đồng nghiên cứu AI theo dõi sát sao. Trong đó, các nhà nghiên cứu tại Đại học Rice phát hiện những hình ảnh sau khi được AI tái tạo nhiều vòng đã trở nên hỗn độn và cuối cùng là vô nghĩa. Đáng lo ngại hơn, AI tạo sinh văn bản có xu hướng tạo ra những nội dung ngày càng nhạt nhẽo, đơn điệu khi nó tự nhai lại những kết quả tổng hợp của mình. Nghiên cứu gần đây trên tạp chí BMJ đã áp dụng bài kiểm tra Đánh giá Nhận thức Montreal (MoCA) cho nhiều chương trình AI khác nhau và phát hiện tình trạng “suy giảm nhận thức” đáng kể, tương tự như con người trong giai đoạn đầu của chứng mất trí nhớ. Hơn nữa, sự suy giảm này diễn ra nhanh chóng: những gì mất hàng thập kỷ ở con người thì ở AI chỉ mất vài tháng - đây chính là hệ quả của tốc độ xử lý nhanh mà chúng ta vốn rất coi trọng trong thế giới số.
Ước tính dữ liệu chất lượng cao do con người tạo ra, có thể dùng để huấn luyện AI, sẽ sớm cạn kiệt - nhiều người cho rằng cùng lắm là vào cuối năm 2026; trong khi nguồn dữ liệu kém chất lượng cho AI học tập cũng chỉ duy trì thêm được vài năm.
Không giống như hầu hết các công nghệ khác, độ chính xác kỹ thuật của các sản phẩm AI có thể giảm dần theo thời gian và quá trình sử dụng, thay vì được cải thiện.
Kỳ 2: Kịch bản đôi bên cùng có lợi
Nguồn:
https://www.timeshighereducation.com/depth/replaced-bots-no-ai-needs-academics-more-we-need-it
Bài đăng KH&PT số 1360 (số 36/2025)
Khoahocphattrien