Nếu tôi yêu cầu bạn chỉ cho tôi thấy nơi mà tổ chức của bạn quyết định những quyết định nào nên được giữ nguyên tính cá nhân, bạn sẽ cho tôi xem gì?
Không phải chính sách quản trị AI của bạn. Không phải khuôn khổ trách nhiệm của bạn. Mà là nhật ký quyết định thực tế thể hiện “Công việc này cần bối cảnh và phán đoán của con người. Công việc này thì không. Đây là lý do.”
Câu hỏi này hiếm khi được đặt ra. Các doanh nghiệp đang vội vàng chứng minh khả năng tiết kiệm và hiệu quả hoạt động.
Daron Acemoglu, người đoạt giải Nobel năm 2024 , gần đây đã giải thích lý do: các động lực hiện tại mặc định hướng đến tự động hóa hơn là tăng cường năng lực. Các nhà lãnh đạo không chủ động lựa chọn con đường đó. Họ chỉ đang đi theo nó.
Nhà kinh tế học đoạt giải Nobel Daron Acemoglu đã nói thẳng thắn điều này trong một podcast gần đây của MIT Sloan: Trí tuệ nhân tạo không cải thiện năng suất.
Không phải vì AI không thể cải thiện năng suất. Hầu hết các tổ chức đang triển khai nó dựa trên các động lực ưu tiên tự động hóa hơn là tăng cường năng lực. Kết quả là, nó thay thế người lao động thay vì trao quyền cho họ.
Ông lập luận rằng công nghệ không có một số phận cố định. Những lựa chọn ngày nay sẽ quyết định liệu trí tuệ nhân tạo (AI) sẽ thúc đẩy khả năng của con người hay chỉ đơn thuần là đẩy nhanh quá trình tự động hóa và bất bình đẳng.
Hầu hết các nhà lãnh đạo mà tôi làm việc cùng ở Singapore đều không chủ động đưa ra lựa chọn đó. Họ chỉ đang làm theo nó.
Họ hỏi:
Đây là những câu hỏi mang tính chiến thuật. Câu hỏi chiến lược thì không được đặt ra: công việc nào đòi hỏi sự phán đoán của con người, bối cảnh và trách nhiệm đối với kết quả, và công việc nào thì không?
Vì vậy, ranh giới được vạch ra bởi các nhóm CNTT ưu tiên các chỉ số hiệu quả, các nhà cung cấp bán nền tảng tự động hóa và các chuyên gia tư vấn tối ưu hóa để giảm chi phí.
Sau đó, thường là vào khoảng tháng thứ sáu, sẽ xảy ra sự cố.
Đến lúc đó, khả năng của con người từng giúp phát hiện ra những vấn đề đó đã mất đi. Nhóm biết cách đưa ra những phán đoán đó đã rời đi, được đào tạo lại, điều chuyển hoặc thay thế.
Bạn đang phải gánh chịu hậu quả mà lẽ ra bạn có thể ngăn chặn được.
Hãy thống kê số lượng dự án AI trong kế hoạch phát triển của bạn hiện tại.
Có bao nhiêu người bắt đầu với câu hỏi: “Công việc này có nên được tự động hóa hay cần người có kiến thức, khả năng phán đoán và chịu trách nhiệm về kết quả?”
Nếu câu trả lời là không, bạn không lựa chọn tự động hóa. Bạn đang chấp nhận nó như một lựa chọn mặc định.
Hãy coi đó như một vấn đề leo thang ngược lại. Thay vì những quyết định không nên đổ dồn lên bàn làm việc của bạn, thì giờ đây những quyết định không nên được giao cho các thuật toán lại rơi vào tay những người đưa ra quyết định sai lầm.
Acemoglu nói đúng. Các động lực hiện tại đang thúc đẩy tự động hóa một cách mặc định. Các nhà cung cấp bán hiệu quả. Các nhà tư vấn tối ưu hóa chi phí. Các dự án thí điểm được đánh giá dựa trên thời gian tiết kiệm được, chứ không phải giá trị được bảo toàn.
Nhưng điều đó không phải là không thể tránh khỏi. Đó là một lựa chọn thiết kế mà bạn không chủ động thực hiện.
Tôi sử dụng hệ thống CAS với khách hàng để vạch ra ranh giới này trước khi họ triển khai AI, chứ không phải sau đó.
Công việc nào đòi hỏi sự phán đoán của con người, bối cảnh thực tế, sự am hiểu văn hóa và trách nhiệm đối với kết quả để đạt hiệu quả tốt? Công việc nào thực sự mang tính cơ học và có thể được hệ thống hóa mà không làm mất đi giá trị?
Ai là người đưa ra quyết định về ranh giới đó? Quyết định này không thể giao cho bộ phận CNTT, bộ phận mua sắm hay nhà cung cấp. Đó là một quyết định mang tính chiến lược của lãnh đạo.
Làm thế nào để giữ vững ranh giới đó khi áp lực tự động hóa ngày càng gia tăng? Những cấu trúc nào giúp giữ cho quyết định được đưa ra rõ ràng thay vì để nó trôi dạt?
Hãy xem xét các dự án thí điểm AI đang được triển khai trong tổ chức của bạn ngay bây giờ.
Một số hoạt động hoàn toàn mang tính cơ học, nơi tốc độ và quy mô là yếu tố quan trọng, lỗi dễ phát hiện và sửa chữa, và không cần đến bối cảnh văn hóa nào.
Một số thao tác trông có vẻ máy móc trên sơ đồ quy trình nhưng lại đòi hỏi sự phán đoán để thực hiện tốt. Bối cảnh văn hóa. Lịch sử quan hệ. Hiểu được những gì quan trọng đối với doanh nghiệp ngoài các chỉ số mà thuật toán có thể nhận biết.
Nếu bạn không thể vạch ra ranh giới rõ ràng, bạn không đang điều khiển trí tuệ nhân tạo. Bạn đang ủy quyền một cách mặc định, chứ không phải theo thiết kế.
Khoảng cách giữa "có thể tự động hóa" và "nên tự động hóa" là nơi các tổ chức đánh mất khả năng mà họ không hề muốn từ bỏ. Đến khi sự mất mát đó trở nên rõ ràng, đội ngũ từng đảm nhiệm chức năng đó đã rời đi, được đào tạo lại, điều chuyển hoặc thay thế.
Nếu bạn đang triển khai AI mà chưa quyết định rõ ràng công việc nào nên do con người thực hiện, thì bạn đang đưa ra lựa chọn bằng cách bỏ sót thông tin.
Lập luận của Acemoglu là điều này có tầm ảnh hưởng vượt ra ngoài phạm vi công ty của bạn. Hiệu ứng tích lũy của việc các nhà lãnh đạo mặc định sử dụng tự động hóa là trí tuệ nhân tạo (AI) làm gia tăng bất bình đẳng thay vì thúc đẩy sự thịnh vượng chung. Nhưng tất cả bắt đầu từ những lựa chọn cá nhân.
Câu hỏi không phải là "Trí tuệ nhân tạo có thể làm được điều này không?" mà là "Liệu nó có nên làm điều này không?"
Nếu công việc đòi hỏi người thực hiện phải có kinh nghiệm trong ngành của bạn, hiểu văn hóa của bạn hoặc chịu trách nhiệm về kết quả, thì đó là công việc của con người. Hãy xây dựng AI xung quanh nó, chứ không phải xây dựng AI thông qua nó.
Nếu bạn không chắc ranh giới đó nằm ở đâu, đó là vấn đề về khả năng lãnh đạo, chứ không phải vấn đề kỹ thuật.
Nếu bạn không chắc chắn ranh giới đó nằm ở đâu, thì chi phí đoán sai sẽ cao hơn chi phí lập bản đồ chính xác.