Liên hệ

Bài nổi bật

Các mô hình AI tiên tiến nhất có thể gặp khó với tác vụ cơ bản

Theo lãnh đạo kỳ lân AI hàng đầu tại Mỹ, các mô hình AI tiên tiến nhất rất giỏi trong việc giải những bài toán Olympic phức tạp nhưng vẫn gặp khó khăn với tác vụ doanh nghiệp cơ bản.

Ông David Meyer – Phó chủ tịch cấp cao phụ trách sản phẩm tại công ty xử lý và phân tích dữ liệu Databricks (Mỹ) – nói trong cuộc phỏng vấn với trang SCMP rằng: chính những đặc điểm giúp các mô hình AI trở nên tiên tiến nhất lại có thể gặp vấn đề khi xử lý các công việc văn phòng cơ bản. Chẳng hạn, khi được giao nhiệm vụ xác định một con số sai trên hóa đơn, mô hình AI tiên tiến nhất thường tự sửa lỗi thay vì chỉ đơn thuần báo lỗi, ông nói.

Sự khác biệt này cũng xuất hiện trong các lĩnh vực kỹ thuật cao khác. Các mô hình AI tiên tiến như Claude của Anthropic rất mạnh về lập trình, nhưng có thể kém hơn trong các nhiệm vụ như kỹ thuật dữ liệu so với những mô hình được huấn luyện chuyên sâu hơn và có dữ liệu đầy đủ hơn trong lĩnh vực này, theo David Meyer.

Kỹ thuật dữ liệu gồm việc chuyển đổi các tập dữ liệu ở quy mô lớn và thực hiện các công việc làm sạch dữ liệu bị thiếu hoặc bất thường để sử dụng được và không gây sai lệch.

“Một mô hình AI dù lớn đến đâu cũng không thể giỏi mọi thứ”, ông nói.

Để giải quyết những vấn đề phức tạp này hiệu quả hơn, David Meyer cho rằng nên dùng các mô hình AI mã nguồn mở nhỏ, được cải thiện bằng kỹ thuật học tăng cường. Cách này giúp tạo ra các mô hình AI chuyên cho từng nhiệm vụ cụ thể với chi phí huấn luyện thấp hơn nhiều bậc so với mô hình tiên tiến nhất.

Học tăng cường là phương pháp trong lĩnh vực AI, trong đó mô hình học cách đưa ra quyết định thông qua quá trình thử – sai và nhận phần thưởng hoặc hình phạt.

Nói đơn giản, học tăng cường hoạt động giống cách con người hoặc động vật học hỏi từ trải nghiệm. Một mô hình AI sẽ tương tác với môi trường, thực hiện các hành động và nhận phản hồi. Nếu hành động đó dẫn đến kết quả tốt, mô hình AI nhận “phần thưởng”. Nếu có kết quả xấu, nó nhận “hình phạt”. Qua nhiều lần thử nghiệm, mô hình AI dần học được chiến lược tối ưu để đạt phần thưởng cao nhất.

Chiến lược này đã được phản ánh trong chính các công cụ AI của Databricks. Điển hình là Genie – trợ lý AI dịch ngôn ngữ tự nhiên thành truy vấn dữ liệu – được hỗ trợ bởi tác tử và mô hình AI, cung cấp cái nhìn sâu sắc về xu hướng rộng hơn trong ngành.

David Meyer trong một sự kiện của Databricks – Ảnh: Handout

Xu hướng ưa chuộng các mô hình AI nhỏ hơn

Qua việc quan sát cách khách hàng tương tác với nền tảng, David Meyer nhận thấy xu hướng ngày càng ưa chuộng các mô hình AI nhỏ hơn thay vì sản phẩm tiên tiến nhất. Những mô hình AI gọn nhẹ sử dụng ít tham số hơn đáng kể, ngày càng được phổ biến nhờ chi phí và độ trễ thấp.

Tham số là các giá trị số mà mô hình AI học được và điều chỉnh trong suốt quá trình huấn luyện trên lượng lớn dữ liệu. Nó là các biến nội bộ của mô hình AI, quyết định cách xử lý thông tin đầu vào và tạo kết quả đầu ra. Mục tiêu của quá trình huấn luyện là tìm ra bộ tham số tối ưu nhất để mô hình AI có thể thực hiện nhiệm vụ (dự đoán từ tiếp theo trong câu, dịch ngôn ngữ, trả lời câu hỏi…) chính xác nhất có thể dựa trên dữ liệu đã học.

Số lượng tham số thường là chỉ số về kích thước và khả năng của mô hình AI. Mô hình AI càng có nhiều tham số thì tiềm năng học được các mẫu phức tạp hơn càng lớn, nhưng cũng đòi hỏi nhiều dữ liệu, tài nguyên tính toán để huấn luyện.

“Về bản chất, các mô hình AI nhỏ nhanh hơn nhiều về thời gian xử lý token đầu tiên và thời gian phản hồi”, David Meyer nói. Khi ứng dụng mở rộng quy mô để xử lý “số lượng truy vấn cực lớn mỗi giây”, các công ty cần những mô hình AI chi phí thấp để đáp ứng điều đó.

Trong AI, token là đơn vị dữ liệu nhỏ nhất mà mô hình xử lý hoặc tạo ra, có thể là một từ, một phần của từ, hoặc thậm chí là dấu câu. Nhiều công ty sử dụng token như một đơn vị kinh tế để đo lường khối lượng tính toán mà AI thực hiện. Văn bản càng dài thì càng cần nhiều token để xử lý, vì vậy chi phí thường được tính theo số token (trên mỗi nghìn hoặc mỗi triệu token).

David Meyer nhận thấy: “Nhiều người rất hào hứng với các mô hình Qwen. Các mô hình mã nguồn mở của Trung Quốc rất tuyệt vời về khả năng, độ trễ thấp và chi phí”. Thế nhưng, các vấn đề về quy định và tuân thủ đang hạn chế việc sử dụng chúng trong môi trường doanh nghiệp.

Dòng mô hình Qwen được phát triển bởi Alibaba Cloud, đơn vị AI và điện toán đám mây của gã khổng lồ thương mại điện tử Alibaba (Trung Quốc).

Bất chấp những hạn chế này, làn sóng tích hợp AI trong doanh nghiệp vẫn không hề giảm nhiệt. “Nhiều người lo sợ bị bỏ lại phía sau, nên muốn triển khai AI nhanh nhất có thể”, David Meyer lý giải.

Ông cho biết các hãng niêm yết thường thận trọng hơn với việc chi tiêu cho AI vì ảnh hưởng đến bảng cân đối kế toán, trong khi những công ty tư nhân có xu hướng sẵn sàng chi tiêu hơn.

Tận dụng làn sóng đầu tư trên toàn ngành, Databricks vào tháng 2 thông báo đã hoàn tất vòng gọi vốn cổ phần khoảng 5 tỉ USD, với mức định giá 134 tỉ USD. Sau khi đạt mức tăng trưởng hơn 65% trong quý 4/2025 so với cùng kỳ năm trước, Databricks đang trên đà tạo ra 5,4 tỉ USD doanh thu trong 12 tháng tới.

Theo Sơn Vân – Một Thế Giới


Xem thêm:

Continue Reading

More in Bài nổi bật

Advertisement
Advertisement
To Top