Thuật toán vì con người. Nền dân chủ trong thời đại AI


 

Podcast
Báo cáo Tóm tắt: Các Chủ đề và Lập luận chính từ "Thuật toán vì con người"

Tài liệu này tổng hợp các lập luận trung tâm và các nghiên cứu điển hình từ "Thuật toán vì con người", khám phá mối quan hệ phức tạp giữa học máy, quản trị và tương lai của nền dân chủ. Lập luận cốt lõi cho rằng học máy không phải là một công cụ kỹ thuật trung lập mà là một quá trình chính trị không thể tránh khỏi, nhúng các giá trị và ưu tiên vào các hệ thống ra quyết định có tác động sâu rộng. Bằng cách phân tích các công cụ dự đoán như Công cụ Sàng lọc Gia đình Allegheny (AFST) và COMPAS, tài liệu cho thấy cách các thuật toán có thể tái tạo và khuếch đại các bất bình đẳng xã hội, đặc biệt là về chủng tộc và kinh tế.

Các lựa chọn thiết kế trong học máy—từ việc xác định biến mục tiêu và thu thập dữ liệu huấn luyện đến việc triển khai các dự đoán—đặt ra những câu hỏi đạo đức và chính trị cơ bản. Tài liệu chỉ ra rằng các khuôn khổ pháp lý hiện hành, đặc biệt là luật chống phân biệt đối xử, không đủ sức để giải quyết những thách thức này, thường bị giới hạn bởi các quan niệm hình thức về sự bình đẳng mà bỏ qua các bất công mang tính cấu trúc.

Để đối phó, một khuôn khổ điều tiết mới được đề xuất, xoay quanh lý tưởng về "bình đẳng chính trị" và việc thiết lập các "Nghĩa vụ Bình đẳng Tích cực" (PEDs). Cách tiếp cận này ủng hộ việc sử dụng có chủ ý các đặc điểm được bảo vệ để khắc phục những bất lợi mang tính hệ thống.

Phân tích sau đó chuyển sang các gã khổng lồ công nghệ như Facebook và Google, xác định chúng là các "tiện ích dân chủ" thực thi "quyền lực hạ tầng" đối với không gian công cộng kỹ thuật số. Các hệ thống xếp hạng của chúng, được thúc đẩy bởi mô hình kinh doanh dựa trên quảng cáo, định hình diễn ngôn công cộng bằng cách tối ưu hóa sự tương tác, thường gây tổn hại cho các giá trị dân chủ như sự đa dạng và trải nghiệm chung. Do đó, quy định nên tập trung vào việc tái cấu trúc các động lực này, có thể thông qua các "bức tường lửa cấu trúc" và thiết lập các cơ chế quản trị có sự tham gia được trao quyền để đảm bảo rằng việc thiết kế các hệ thống này hỗ trợ sự phát triển của nền dân chủ thay vì làm suy yếu nó. Cuối cùng, thách thức không phải là tối ưu hóa dân chủ thông qua dự đoán, mà là bảo vệ khả năng của dân chủ để đưa ra các lựa chọn tập thể tự do, thoát khỏi sự kìm kẹp của quá khứ.

I. Bản chất Chính trị của Học máy: Nghiên cứu điển hình về AFST

Lập luận trung tâm của tài liệu là học máy (ML) mang bản chất chính trị. Các lựa chọn trong việc thiết kế và triển khai các mô hình ML không chỉ là kỹ thuật; chúng ưu tiên lợi ích của một số nhóm xã hội hơn những nhóm khác và bảo vệ một số giá trị cơ bản trong khi vi phạm những giá trị khác. Điều này làm cho việc sử dụng ML trong các lĩnh vực công trở thành một vấn đề quản trị dân chủ cốt lõi.

Công cụ Sàng lọc Gia đình Allegheny (AFST)

Công cụ Sàng lọc Gia đình Allegheny (AFST) là một ví dụ điển hình về tính chính trị của ML. Được phát triển bởi văn phòng Trẻ em, Thanh thiếu niên và Gia đình (CYF) của Hạt Allegheny, Pennsylvania, AFST là một thuật toán ML nhằm dự đoán nguy cơ trẻ em bị lạm dụng hoặc bỏ bê.

  • Mục tiêu: AFST được tạo ra với hai mục tiêu chính:

1.     Giảm số trường hợp bạo lực bị bỏ qua một cách sai lầm.

2.     Giải quyết sự chênh lệch chủng tộc trong việc cung cấp phúc lợi trẻ em.

  • Cơ chế: Công cụ này tạo ra một điểm số rủi ro từ 1 (thấp nhất) đến 20 (cao nhất) cho mỗi cuộc gọi đến đường dây nóng báo cáo lạm dụng. Điểm số này thông báo cho quyết định có nên cử một nhân viên xã hội đến điều tra hay không.
  • Hậu quả không mong muốn: Mặc dù được phát triển với sự cẩn trọng và có sự tham gia của cộng đồng, AFST đã tái tạo và làm trầm trọng thêm các mô hình bất bình đẳng chủng tộc và kinh tế.
    • Các gia đình nghèo và người Mỹ gốc Phi bị giám sát không cân xứng.
    • Tại Hạt Allegheny, 38% cuộc gọi đến đường dây nóng liên quan đến trẻ em Da đen, gấp đôi tỷ lệ dân số của họ.
    • Cứ 1.000 trẻ em Da đen thì có 8 trẻ bị đưa ra khỏi nhà, so với 1,7 trên 1.000 trẻ em Da trắng.
  • Xung đột về Giá trị: Việc triển khai AFST đã làm nổi bật những bất đồng tiềm ẩn về các giá trị trong CYF:
    • Nhân viên xã hội: Cho rằng quyết định nên dựa trên mức độ nghiêm trọng của cáo buộc cụ thể.
    • Giám sát viên và Quản lý: Thích tập trung vào các mẫu trong dữ liệu hành chính để dự đoán rủi ro tổng thể của cá nhân, cho rằng các sự cố đơn lẻ có thể gây hiểu lầm.

Trường hợp AFST minh họa rằng ngay cả với ý định tốt nhất, các công cụ dự đoán có thể củng cố các bất bình đẳng hiện có. Nó cũng cho thấy việc áp dụng ML buộc các tổ chức phải đối mặt với các cuộc tranh luận về giá trị và mục tiêu vốn trước đây bị che giấu hoặc bỏ qua.

Tác động lên Quyền tự chủ của Con người

Việc áp dụng các công cụ như AFST đã làm thay đổi điểm kiểm soát của con người trong các quy trình ra quyết định.

  • Giảm quyền tự chủ: Nhân viên xã hội có ít quyền tự chủ hơn để thực hiện phán đoán chuyên môn và bỏ qua các dự đoán của AFST. Các cuộc gọi có điểm rủi ro cao (trên 16) hiện được tự động gắn cờ để điều tra.
  • Mất quyền lực của công dân: Những người chịu sự phán xét của thuật toán cảm thấy bị tước quyền, không thể hiểu hoặc tác động đến logic của nó. Như một người mẹ, Pamela Simmons, đã nói, có thể "sửa chữa nó với một người," nhưng với AFST, bạn "không thể sửa chữa con số đó."

II. Giải mã Quy trình Học máy: Các Lựa chọn và Hậu quả

Tác động của một hệ thống ML được định hình bởi một chuỗi các lựa chọn của con người. Những lựa chọn này có thể được phân thành hai loại chính: thiết kế mô hình và triển khai mô hình.

Các Lựa chọn trong Thiết kế Mô hình

1.     Biến Đích (Kết quả Dự đoán):

o    Đây là lựa chọn quan trọng nhất, xác định kết quả mà mô hình sẽ học cách dự đoán. Việc dịch một vấn đề mơ hồ (ví dụ: "khả năng tín dụng", "lạm dụng trẻ em") thành một biến đích cụ thể, có thể đo lường được luôn liên quan đến sự phán đoán và ưu tiên các giá trị.

o    Ví dụ AFST:

§  Phiên bản ban đầu sử dụng hai mô hình: một mô hình dự đoán khả năng tái giới thiệu trong vòng hai năm, và mô hình kia dự đoán khả năng đưa vào trại nuôi dưỡng trong vòng hai năm.

§  Biến đích "tái giới thiệu" được phát hiện là có vấn đề vì nó dựa trên một hoạt động (các cuộc gọi giới thiệu) mà chính CYF biết là có thành kiến chủng tộc, do đó đã xây dựng sự phân biệt đối xử vào mô hình.

§  Hạt Allegheny cuối cùng đã loại bỏ mô hình dự đoán tái giới thiệu, nhận ra rằng "đưa vào trại nuôi dưỡng" là một đại diện tốt hơn cho sự tổn hại nghiêm trọng và ít bị ảnh hưởng bởi thành kiến của người gọi ban đầu.

2.     Dữ liệu Huấn luyện:

o    Dữ liệu không phải là sự phản ánh khách quan của thực tế mà là kết quả của các lựa chọn của con người về những gì cần đo lường và cách thức đo lường. Chất lượng và tính đại diện của dữ liệu huấn luyện quyết định những gì mô hình học được.

o    Các vấn đề về dữ liệu:

§  Thiên vị & Không đại diện: Dữ liệu của AFST chủ yếu đến từ các dịch vụ công (phúc lợi, tư pháp vị thành niên), do đó đại diện quá mức cho các hộ gia đình có thu nhập thấp và người Mỹ gốc Phi, trong khi loại trừ dữ liệu từ các gia đình giàu có hơn (ví dụ: bảo hiểm y tế tư nhân).

§  Thiên vị Lịch sử: Các mô hình được đào tạo trên dữ liệu lịch sử sẽ tái tạo lại các định kiến trong quá khứ. Ví dụ, một thuật toán tuyển sinh của Bệnh viện St George ở London đã học được cách phân biệt đối xử với phụ nữ và các nhóm thiểu số từ các quyết định tuyển sinh trong quá khứ.

§  Thiên vị Hiện tại: Dữ liệu có thể phản ánh các định kiến hiện tại của người dùng. Ví dụ, Google có nhiều khả năng hiển thị quảng cáo hồ sơ bắt giữ cho các tên nghe có vẻ là người Da đen vì người dùng có xu hướng nhấp vào các quảng cáo đó nhiều hơn cho những tìm kiếm đó.

3.     Tính năng (Features):

o    Đây là các thuộc tính (biến) được sử dụng để đưa ra dự đoán. Việc loại bỏ các thuộc tính được bảo vệ như chủng tộc thường không loại bỏ được sự thiên vị.

o    Mã hóa thừa (Redundant Encoding): Các biến khác (như thu nhập, mã zip, tỷ lệ kết án) thường tương quan chặt chẽ với các thuộc tính được bảo vệ. Do đó, một mô hình vẫn có thể học được các mẫu phân biệt đối xử ngay cả khi không có quyền truy cập trực tiếp vào dữ liệu chủng tộc.

o    Học máy chính xác hơn có thể chỉ đơn giản là phản ánh sự bất bình đẳng xã hội hiện có một cách chính xác hơn.

4.     Mô hình (Thuật toán):

o    Lựa chọn thuật toán cụ thể (ví dụ: cây quyết định, hồi quy logistic) liên quan đến sự đánh đổi giữa độ chính xác, khả năng diễn giải và hiệu quả tính toán. Trong các bối cảnh rủi ro cao như bảo vệ trẻ em, các mô hình dễ diễn giải hơn thường được ưu tiên.

Các Lựa chọn trong Triển khai Mô hình

1.     Từ Dự đoán đến Quyết định:

o    Các tổ chức phải quyết định cách sử dụng các dự đoán: để thay thế hay hỗ trợ phán đoán của con người.

o    Mặc dù AFST được thiết kế để "thông báo" cho các quyết định, trên thực tế, nó ngày càng thay thế quyền tự chủ của nhân viên, "huấn luyện các nhân viên tiếp nhận" để tuân theo các khuyến nghị của nó.

o    Cách trình bày dự đoán cũng quan trọng. AFST sử dụng thang điểm 1-20 được mã hóa màu sắc, nhưng mối quan hệ giữa các điểm và rủi ro thực tế là phi tuyến tính, một sự phức tạp có thể không được truyền đạt rõ ràng cho người dùng cuối.

2.     Từ Quyết định đến Hành động (Vòng lặp Phản hồi):

o    Các hành động được thực hiện dựa trên dự đoán tạo ra dữ liệu mới, sau đó được đưa trở lại mô hình, có khả năng tạo ra các vòng lặp tự củng cố.

o    Ví dụ: Nếu các gia đình Da đen bị điều tra thường xuyên hơn do điểm AFST cao, họ sẽ tạo ra nhiều dữ liệu hành chính hơn, điều này có thể dẫn đến điểm số cao hơn trong tương lai, làm gia tăng sự chênh lệch ban đầu.

III. Thách thức về Công bằng: Những Đánh đổi trong Công bằng Thuật toán

Cuộc tranh luận xung quanh các công cụ đánh giá rủi ro hình sự, đặc biệt là COMPAS, làm nổi bật những khó khăn trong việc định nghĩa và thực thi "công bằng" trong học máy.

Nghiên cứu điển hình COMPAS

  • COMPAS (Correctional Offender Management Profiling for Alternative Sanctions): Một công cụ dự đoán nguy cơ tái phạm của bị cáo, được sử dụng trong các quyết định về bảo lãnh và tạm tha trên khắp Hoa Kỳ.
  • Cáo buộc của ProPublica: Một cuộc điều tra của ProPublica năm 2016 cho rằng COMPAS có "thành kiến chống lại người da đen". Phân tích của họ cho thấy:
    • Công cụ này có nhiều khả năng dán nhãn sai các bị cáo Da đen là rủi ro cao (dương tính giả) và dán nhãn sai các bị cáo da trắng là rủi ro thấp (âm tính giả).
    • Tỷ lệ dương tính giả đối với bị cáo Da đen là 45%, so với 23% đối với bị cáo da trắng.
    • Tỷ lệ âm tính giả đối với bị cáo da trắng là 48%, so với 28% đối với bị cáo Da đen.

Các Định nghĩa Toán học về Công bằng và Sự bất khả thi

Cuộc tranh luận về COMPAS đã thúc đẩy một lĩnh vực nghiên cứu trong khoa học máy tính khám phá các định nghĩa toán học khác nhau về công bằng, mỗi định nghĩa đều cố gắng nắm bắt một khía cạnh của sự đối xử bình đẳng.

Định nghĩa Công bằng

Mô tả

Cân bằng Tỷ lệ Lỗi

Yêu cầu tỷ lệ dương tính giả (FPR) và tỷ lệ âm tính giả (FNR) phải bằng nhau giữa các nhóm (ví dụ: người Da đen và người Da trắng). Đây là tiêu chí mà ProPublica đã sử dụng.

Hiệu chuẩn (Calibration)

Yêu cầu một điểm số rủi ro phải có cùng ý nghĩa đối với tất cả các nhóm. Ví dụ, trong số tất cả những người được điểm rủi ro là 7, tỷ lệ tái phạm thực tế phải giống nhau cho cả người Da đen và người Da trắng. Đây là tiêu chí mà Northpointe, công ty tạo ra COMPAS, đã bảo vệ.

Chống Phân loại

Yêu cầu mô hình không được sử dụng các thuộc tính được bảo vệ (như chủng tộc) hoặc các biến tương quan chặt chẽ với chúng làm đầu vào.

Bình đẳng Dân số

Yêu cầu tỷ lệ kết quả tích cực (ví dụ: được dán nhãn rủi ro cao) phải bằng nhau giữa các nhóm.

Định lý Bất khả thi: Một phát hiện quan trọng là khi tỷ lệ cơ sở của một kết quả (ví dụ: tỷ lệ tái phạm thực tế) khác nhau giữa các nhóm, một mô hình dự đoán không thể đồng thời thỏa mãn cả hiệu chuẩn và cân bằng tỷ lệ lỗi.

  • Trong trường hợp của COMPAS, vì tỷ lệ tái phạm thực tế cao hơn ở các bị cáo Da đen so với các bị cáo da trắng trong dữ liệu, một mô hình hoặc có thể được hiệu chuẩn (đảm bảo điểm số có ý nghĩa như nhau) hoặc có tỷ lệ lỗi bằng nhau, nhưng không thể có cả hai.
  • Sự đánh đổi này không phải là một sự thật toán học trừu tượng mà là sự phản ánh của các bất bình đẳng xã hội được mã hóa trong dữ liệu.

Phê bình về Công bằng Toán học

Tác giả lập luận rằng việc tìm kiếm các định nghĩa toán học về công bằng nhóm mắc hai sai lầm cơ bản:

1.     Áp dụng sai nguyên tắc: Nguyên tắc đối xử bình đẳng áp dụng cho các quyết định của con người, không phải các dự đoán của máy móc. Điều quan trọng là các dự đoán phải được hiệu chuẩn tốt để con người có thể sử dụng chúng để đưa ra các quyết định công bằng. Việc áp đặt các ràng buộc công bằng khác lên mô hình có thể làm sai lệch dự đoán và dẫn đến các quyết định kém công bằng hơn.

2.     Che khuất tranh luận chính trị: Bằng cách nhúng một cách giải thích cụ thể về sự bình đẳng vào mã kỹ thuật, các định nghĩa công bằng toán học đặt nó ngoài tầm kiểm soát của công chúng và sự tranh giành chính trị. Chúng ngăn cản các cuộc thảo luận cần thiết về việc khi nào và tại sao sự khác biệt giữa các nhóm có thể liên quan về mặt đạo đức đến các quyết định khác nhau.

IV. Luật pháp Hiện hành và những Hạn chế: Chống Phân biệt đối xử trong Kỷ nguyên AI

Luật chống phân biệt đối xử hiện hành, đặc biệt là ở Hoa Kỳ, không được trang bị tốt để giải quyết các tác động phân biệt đối xử của học máy. Hai học thuyết pháp lý chính là đối xử khác biệt và tác động khác biệt.

Nghiên cứu điển hình: Hệ thống Phân phối Quảng cáo của Facebook

  • Hệ thống của Facebook sử dụng các mô hình như p(nhấp) để dự đoán xác suất một người dùng sẽ nhấp vào một quảng cáo cụ thể, sau đó phân phối quảng cáo cho những người dùng có khả năng tương tác cao nhất.
  • Ngay cả khi nhà quảng cáo không nhắm mục tiêu theo giới tính, nếu phụ nữ có xu hướng nhấp vào quảng cáo cho các công việc có thu nhập thấp hơn và nam giới nhấp vào quảng cáo cho các công việc có thu nhập cao hơn, hệ thống sẽ tự nhiên phân phối các quảng cáo có thu nhập thấp hơn cho phụ nữ và các quảng cáo có thu nhập cao hơn cho nam giới, củng cố sự bất bình đẳng giới trên quy mô lớn.

Phân tích các Học thuyết Pháp lý

1.     Đối xử khác biệt (Chống Phân loại):

o    Học thuyết này cấm việc sử dụng có chủ ý các đặc điểm được bảo vệ (chủng tộc, giới tính, v.v.) trong việc ra quyết định.

o    Hạn chế: Như đã thảo luận, việc chỉ cần loại bỏ các đặc điểm được bảo vệ khỏi một mô hình ML thường không hiệu quả do "mã hóa thừa". Các công ty như Facebook có thể dễ dàng tuân thủ hình thức của luật này trong khi hệ thống của họ vẫn tạo ra các kết quả phân biệt đối xử.

2.     Tác động khác biệt:

o    Học thuyết này giải quyết các thực tiễn trung lập về hình thức nhưng có tác động bất lợi không cân xứng đối với một nhóm được bảo vệ. Nó liên quan đến một quy trình ba giai đoạn:

1.     Nguyên đơn: Phải chứng minh rằng một thực tiễn gây ra tác động khác biệt. Với ML, điều này có thể dễ dàng hơn vì các hệ thống thường tạo ra dữ liệu rõ ràng về sự chênh lệch.

2.     Bị đơn: Có thể biện minh cho thực tiễn bằng cách chứng minh rằng nó cần thiết cho hoạt động kinh doanh. Các công ty có thể dễ dàng lập luận rằng một mô hình ML chính xác là cần thiết cho kinh doanh vì nó tối ưu hóa hiệu quả hoặc lợi nhuận.

3.     Nguyên đơn: Phải chứng minh rằng có một phương tiện thay thế, ít phân biệt đối xử hơn mà vẫn đạt được cùng một mục đích kinh doanh. Điều này cực kỳ khó khăn đối với nguyên đơn, đặc biệt là khi không có quyền truy cập vào dữ liệu, mô hình và các tính năng độc quyền của công ty.

Xung đột Trung tâm: Chống Phân loại vs. Chống Áp bức

Tác giả lập luận rằng luật chống phân biệt đối xử bị giằng xé giữa hai mục đích cạnh tranh:

  • Chống Phân loại: Sai lầm của phân biệt đối xử là việc sử dụng các tiêu chí không liên quan về mặt đạo đức. Nó đòi hỏi sự mù quáng đối với các đặc điểm được bảo vệ.
  • Chống Áp bức: Sai lầm của phân biệt đối xử là nó củng cố các cấu trúc quyền lực bất công và sự áp bức của các nhóm bị thiệt thòi trong lịch sử. Nó có thể yêu cầu các hành động có ý thức về chủng tộc/giới tính để khắc phục sự bất bình đẳng.

Học máy buộc chúng ta phải đối mặt với sự căng thẳng này. Các hệ thống như p(click) có thể tuân thủ nguyên tắc chống phân loại nhưng vẫn vi phạm nguyên tắc chống áp bức. Luật pháp hiện hành đang có nguy cơ bị ràng buộc bởi logic chống phân loại, khiến nó trở thành một công cụ cùn để theo đuổi công lý xã hội.

V. Facebook và Google: Quyền lực Hạ tầng và Sự tha hóa Không gian Công cộng

Facebook và Google không chỉ là các công ty công nghệ; chúng đã trở thành các thực thể thực thi một loại quyền lực hạ tầng đối với không gian công cộng kỹ thuật số. Chúng không kiểm soát nội dung, nhưng chúng kiểm soát kiến trúc xác định ai thấy gì.

Hệ thống Xếp hạng như Cơ sở hạ tầng

  • Giải quyết vấn đề Phong phú: Cả Facebook News Feed và Google Search đều giải quyết "vấn đề về sự phong phú"—sự tồn tại của quá nhiều thông tin.
    • Facebook News Feed: Sắp xếp hàng ngàn mẩu nội dung tiềm năng và xếp hạng chúng dựa trên dự đoán về nội dung mà người dùng có khả năng tương tác nhất.
    • Google Search (PageRank và hơn thế nữa): Sắp xếp hàng tỷ trang web để trả lời một truy vấn, xếp hạng chúng dựa trên dự đoán về mức độ liên quan và quyền uy.
  • Tính Hiệu lực (Performativity): Các hệ thống xếp hạng này không chỉ dự đoán hành vi; chúng định hình nó.
    • Bạn tương tác với nội dung mà Facebook dự đoán bạn sẽ tương tác nó được hiển thị ở đầu News Feed của bạn.
    • Điều này tạo ra một vòng lặp trong đó các dự đoán của nền tảng trở thành sự thật, định hình sở thích và niềm tin của công dân ngay từ đầu.

Phê bình về Sự tha hóa (Critique of Corruption)

Mô hình kinh doanh của Facebook và Google, dựa trên quảng cáo nhắm mục tiêu, tạo ra các động lực làm tha hóa không gian công cộng.

  • Tối đa hóa Sự chú ý: Mục tiêu chính của các hệ thống xếp hạng là giữ người dùng trên nền tảng càng lâu càng tốt để thu thập nhiều dữ liệu hơn cho các hệ thống quảng cáo sinh lợi.
  • Ưu tiên Tương tác: Điều này dẫn đến việc ưu tiên nội dung gây ra phản ứng cảm xúc mạnh mẽ (phẫn nộ, sợ hãi) hơn là nội dung có thông tin, cân bằng hoặc thúc đẩy diễn ngôn công dân lành mạnh. Ví dụ, sự thay đổi của Facebook sang chỉ số "Tương tác Xã hội Có ý nghĩa" (MSI) đã được phát hiện là làm tăng sự chia rẽ và phẫn nộ.
  • Bong bóng Lọc và Phân cực: Các hệ thống được cá nhân hóa cao tạo ra "bong bóng lọc", trong đó người dùng chủ yếu tiếp xúc với các quan điểm mà họ đã đồng ý, làm xói mòn kiến thức chung và làm sâu sắc thêm sự phân cực xã hội.

Quyền lực Nút cổ chai (Bottleneck Power)

Facebook và Google hoạt động như những người gác cổng hoặc các điểm tắc nghẽn trong hệ sinh thái thông tin.

  • Chúng kiểm soát quyền truy cập vào khán giả và thông tin, đóng một vai trò quan trọng đối với các hoạt động cơ bản của công dân như tổ chức chính trị (ví dụ: cuộc đình công của giáo viên Tây Virginia), tiếp cận tin tức và tham gia vào các cuộc tranh luận công khai.
  • Sự kiểm soát đơn phương của họ đối với cơ sở hạ tầng này là một hình thức quyền lực tư nhân tập trung, không chịu sự giám sát dân chủ hiệu quả.

VI. Con đường phía trước: Điều tiết vì Dân chủ

Để giải quyết quyền lực hạ tầng của Facebook và Google, cần có một cách tiếp cận quy định mới, vượt ra ngoài các khuôn khổ chống độc quyền hoặc quyền riêng tư truyền thống.

Tái định hình Quy định: Tiện ích Dân chủ

  • Quan niệm Chính trị về Tiện ích Công cộng: Thay vì định nghĩa kinh tế hẹp về độc quyền tự nhiên, tác giả đề xuất khôi phục lại quan niệm chính trị rộng lớn hơn của Thời kỳ Tiến bộ, trong đó các tiện ích công cộng là các ngành công nghiệp quan trọng đối với đời sống công cộng và do đó phải chịu sự kiểm soát dân chủ.
  • Tiện ích Dân chủ: Facebook và Google nên được coi là "tiện ích dân chủ"—các tập đoàn mà quyền lực hạ tầng của chúng định hình khả năng tự quản tập thể của công dân. Mục tiêu điều tiết chúng nên là bảo vệ và thúc đẩy sự phát triển của nền dân chủ.

Các Nguyên tắc Hướng dẫn cho Tiện ích Dân chủ

Thiết kế các hệ thống xếp hạng của Facebook và Google nên được hướng dẫn bởi các nguyên tắc ủng hộ một không gian công cộng lành mạnh:

1.     Chống tha hóa: Thiết lập các "bức tường lửa cấu trúc" để tách biệt các động lực thương mại của quảng cáo khỏi việc thiết kế cơ sở hạ tầng thông tin. Điều này sẽ yêu cầu các quyết định về thiết kế News Feed và Search phải ưu tiên lợi ích công cộng hơn là doanh thu quảng cáo.

2.     Đa dạng: Chủ động thiết kế các hệ thống để cho công dân tiếp xúc với các quan điểm và ý tưởng đa dạng mà họ sẽ không tự chọn. Các cơ chế như "nút tình cờ" hoặc các thuật toán thúc đẩy sự đa dạng địa lý có thể chống lại tác động của bong bóng lọc.

3.     Trải nghiệm chung: Xây dựng cơ sở hạ tầng thông tin công dân để tạo ra các trải nghiệm và điểm tham chiếu chung, vốn rất quan trọng cho lòng tin xã hội và hành động tập thể.

Xây dựng Trách nhiệm giải trình Thể chế

Để thực thi các nguyên tắc này, cần có một sự thay đổi cơ bản trong cách tiếp cận quy định:

1.     Từ Giải thích Kỹ thuật sang Biện minh Thể chế: Thay vì yêu cầu các giải thích kỹ thuật không thể hiểu được về cách các mô hình hoạt động ("Tại sao tôi thấy bài đăng này?"), quy định nên yêu cầu Facebook và Google phải biện minh cho các lựa chọn thiết kế cấp cao của họ ("Tại sao News Feed lại tối ưu hóa cho chỉ số này? Các lựa chọn thay thế là gì?").

2.     Từ Quản trị Kỹ trị sang Quản trị có Sự tham gia được trao quyền: Thay vì dựa vào các chuyên gia hoặc sự tự điều chỉnh của công ty, cần thiết lập các cơ chế dân chủ mới. Một Cơ quan Nền tảng AI (APA) mới có thể được thành lập để giám sát các tiện ích dân chủ, sử dụng các công cụ như:

o    Hội đồng Công dân: Để thảo luận và thiết lập các nghĩa vụ cấp cao (ví dụ: định nghĩa "đa dạng").

o    Tiểu Công chúng: Các nhóm nhỏ hơn gồm các bên liên quan (chuyên gia, xã hội dân sự) để giám sát việc thiết kế các hệ thống cụ thể.

o    Ban Giám khảo Công dân: Để đưa ra các phán quyết về việc liệu các hệ thống có tuân thủ các nghĩa vụ của chúng hay không.

Cách tiếp cận này thừa nhận rằng sẽ luôn có những bất đồng về cách thiết kế không gian công cộng. Mục tiêu không phải là tìm ra một giải pháp kỹ thuật duy nhất, đúng đắn, mà là tạo ra các quy trình dân chủ mạnh mẽ để liên tục tranh luận, thử nghiệm và sửa đổi các hệ thống định hình cuộc sống chung của chúng ta.

1. Cơ chế nào giúp nền dân chủ quản lý hiệu quả quyền lực chính trị của học máy?

Cơ chế giúp nền dân chủ quản lý hiệu quả quyền lực chính trị của học máy phải tập trung vào việc thể chế hóa các quy trình thử nghiệm, suy ngẫm và sửa đổi liên tục, đồng thời đảm bảo các lựa chọn thiết kế và triển khai học máy ưu tiên các giá trị dân chủ thay vì các mục tiêu kỹ trị trung lập một cách hời hợt.

Bởi vì học máy mang tính chính trị—các lựa chọn về thiết kế và sử dụng nó liên quan đến việc đánh đổi, ưu tiên một số lợi ích và giá trị hơn những lợi ích và giá trị khác—việc theo đuổi công lý và dân chủ phụ thuộc vào cách chúng ta thu hẹp những khoảng trống về kinh nghiệm, trách nhiệm và ngôn ngữ xung quanh các công cụ dự đoán.

Dưới đây là các cơ chế chính được đề xuất để quản lý quyền lực chính trị của học máy, dựa trên bối cảnh sử dụng:

1. Quản lý chung (Phân phối Lợi ích và Gánh nặng Xã hội)

Đối với các hệ thống học máy được sử dụng trong các lĩnh vực như phúc lợi trẻ em, tư pháp hình sự hoặc tuyển dụng (ví dụ: AFST, COMPAS), cơ chế quản lý cần được thúc đẩy bởi lý tưởng bình đẳng chính trị. Lý tưởng này mời gọi chúng ta đối mặt với sự cần thiết phải tranh luận về thời điểm và lý do tại sao nên đối xử khác biệt với mọi người để giải quyết những bất lợi về cấu trúc.

Các cơ chế quản lý cụ thể bao gồm:

  • Chuyển từ Lệnh cấm sang Nghĩa vụ Tích cực: Cần chuyển đổi từ các lệnh cấm tiêu cực (ví dụ: luật chống phân biệt đối xử chỉ tập trung vào việc tránh sử dụng các đặc điểm được bảo vệ một cách hình thức) sang Nghĩa vụ Bình đẳng Tích cực (PEDs). Các PED sẽ yêu cầu các tổ chức thực hiện các nỗ lực hợp lý để đảm bảo rằng các quy trình ra quyết định của họ không làm trầm trọng thêm sự bất bình đẳng xã hội và, trong một số bối cảnh, chủ động giảm bớt chúng.
  • Thành lập Cơ quan Quản lý Bình đẳng: Các nghĩa vụ tích cực này nên được thực thi bởi các cơ quan quản lý bình đẳng và quyền dân sự được trao quyền và có đủ nguồn lực, thay vì chủ yếu bởi tòa án áp đặt các biện pháp khắc phục cá nhân sau sự việc (ex post).
  • Đạo luật Bình đẳng AI (AIEA): Thành lập một khuôn khổ luật pháp mới, chẳng hạn như Đạo luật Bình đẳng AI, để thể chế hóa các nghĩa vụ này. AIEA sẽ khẳng định bình đẳng chính trị là nguyên tắc hướng dẫn trong thiết kế và triển khai công cụ dự đoán.
  • Công bằng Cá nhân: Nếu cần áp đặt các ràng buộc đối với các công cụ dự đoán, luật pháp nên thể chế hóa cách tiếp cận công bằng cá nhân của Cynthia Dwork. Cách tiếp cận này yêu cầu các thể chế xác định chính xác những ai được đối xử tương tự và biện minh cho chỉ số khoảng cách của họ, cô lập các phán đoán chính trị về sự đối xử bình đẳng thay vì tìm kiếm một công thức toán học phổ quát về công bằng nhóm.

2. Quản lý Facebook và Google (Cơ sở hạ tầng Kỹ thuật số)

Đối với Facebook và Google, vốn thực hiện quyền lực cơ sở hạ tầng đặc biệt thông qua các hệ thống xếp hạng sử dụng học máy để định hình không gian công cộng và hệ sinh thái thông tin công dân, quản lý cần được xem xét dưới khung tiện ích dân chủ.

Các cơ chế quản lý nhằm đảm bảo rằng việc thực thi quyền lực cơ sở hạ tầng này hỗ trợ sự phát triển của nền dân chủ bao gồm:

A. Nguyên tắc Hướng dẫn

Việc thiết kế hệ thống học máy phải được định hướng bởi các mục tiêu chung, bao gồm:

1.     Chống Tham nhũng: Thiết kế các hệ thống ưu tiên lợi ích công cộng hơn doanh thu quảng cáo.

2.     Đa dạng: Thúc đẩy sự đa dạng của tiếng nói và giá trị trong không gian công cộng bằng cách khuyến khích các cuộc gặp gỡ ngẫu nhiên giữa các công dân và ý tưởng khác biệt.

3.     Trải nghiệm Chung: Hỗ trợ các trải nghiệm chung và phổ biến rộng rãi thông tin công cộng để thúc đẩy mục đích chung giữa các công dân đa dạng.

B. Cơ cấu Tổ chức và Giám sát

  • Bức tường lửa Cấu trúc (Structural Firewalls): Áp đặt các bức tường lửa cấu trúc để tách biệt các hệ thống xếp hạng cơ sở hạ tầng (ví dụ: News Feed, Tìm kiếm) khỏi các hệ thống phân phối quảng cáo. Điều này nhằm điều chỉnh động lực sản xuất, đảm bảo các tiện ích dân chủ xem xét đầy đủ lợi ích công cộng khi thiết kế hệ thống của họ.
  • Thành lập Cơ quan Nền tảng AI (APA): Thành lập Cơ quan Nền tảng AI (APA), một cơ quan quản lý chuyên trách, có nguồn lực tốt và có kỹ năng kỹ thuật, để giám sát việc thiết kế và đánh giá các hệ thống học máy của Facebook và Google.

C. Quy trình Trách nhiệm giải trình

  • Biện minh Thể chế thay vì Giải thích Kỹ thuật: Thay vì yêu cầu giải thích kỹ thuật về logic bên trong mô hình (thường là phức tạp và không làm rõ được các lựa chọn chính trị), Facebook và Google nên được yêu cầu cung cấp biện minh thể chế có nguyên tắc cho các lựa chọn thiết kế của họ. Biện minh này phải làm rõ các chỉ số hàng đầu mà họ tối ưu hóa, các khái niệm họ ước tính, các hướng dẫn gắn nhãn và các số liệu thống kê tóm tắt về dữ liệu đào tạo.
  • Ra quyết định có sự Tham gia (Thử nghiệm Dân chủ): APA nên cấu trúc các cơ chế quản trị có sự tham gia được trao quyền để thúc đẩy thử nghiệm và học hỏi tập thể liên tục. Các cơ chế này bao gồm:
    • Hội đồng Công dân (Citizen assemblies): Bao gồm các đại diện được bầu cử và các chuyên gia để phát triển các nghĩa vụ rộng lớn áp đặt lên các công ty.
    • Tiểu Công chúng (Mini-publics): Triệu tập các cơ quan công quyền và các nhóm xã hội dân sự (ví dụ: FTC, FCC, ACLU) để kiểm tra các bản cập nhật lớn và nguyên tắc thiết kế của các hệ thống học máy cụ thể.
    • Ban giám khảo Công dân (Citizen juries): Được sử dụng để đưa ra các quyết định gây tranh cãi, có tính rủi ro cao về các trường hợp cá nhân hoặc các quyết định nhị phân, xây dựng tính hợp pháp cho các phán quyết và rèn luyện năng lực chính trị của công dân.

Tóm lại, việc quản lý quyền lực chính trị của học máy đòi hỏi phải thay đổi cấu trúc thể chế để khuyến khích các tổ chức thiết kế các quy trình ra quyết định nhằm giải quyết bất bình đẳng cấu trúc (thông qua PEDs và AIEA) và hỗ trợ tự quản tập thể (thông qua khung tiện ích dân chủ, APA và quản trị có sự tham gia).

2. Làm thế nào các mô hình học máy tái tạo và làm trầm trọng thêm bất bình đẳng xã hội hiện có?

Các mô hình học máy tái tạo và làm trầm trọng thêm bất bình đẳng xã hội hiện có chủ yếu là do bản chất chính trị của chúng, nguồn dữ liệu được sử dụng để huấn luyện và cơ chế hoạt động của chúng tạo ra các vòng lặp phản hồi tự củng cố trong thế giới thực.

Dưới đây là các cơ chế chi tiết giải thích cách các mô hình học máy củng cố sự bất công:

1. Phản ánh và Mã hóa Thiên kiến Lịch sử và Cấu trúc

Các mô hình học máy được xây dựng dựa trên dữ liệu do con người thu thập, vốn phản ánh các cấu trúc, cơ hội và bất lợi của một thế giới vốn đã tồn tại nhiều bất công.

  • Dữ liệu thiên vị và không đại diện: Các hệ thống dữ liệu thường có sẵn đã mang tính thiên kiến, ví dụ, "lấy mẫu quá mức những người nghèo". Dữ liệu có thể là một phần, chẳng hạn như Công cụ sàng lọc gia đình Allegheny (AFST) được huấn luyện trên dữ liệu đại diện cho các hộ gia đình có thu nhập thấp, người Mỹ gốc Phi một cách không cân xứng và loại trừ dữ liệu được tạo ra bởi các gia đình giàu có, người da trắng (ví dụ: bảo hiểm y tế tư nhân).
  • Phản ánh thế giới bất công: Các hệ thống học máy phản ánh sự bất bình đẳng lịch sử. Nếu các quyết định trong quá khứ được sử dụng làm ví dụ cho việc đào tạo mô hình đã bị ảnh hưởng bởi một số hình thức thiên kiến, thì việc khai thác dữ liệu nhất thiết sẽ suy ra các quy tắc thể hiện cùng một thiên kiến đó. Vấn đề không phải là dữ liệu không chính xác, mà là dữ liệu phản ánh chính xác một thế giới bất công.
  • Danh mục bất lợi: Dữ liệu có thể nắm bắt các mô hình bất bình đẳng, khiến cơ hội trong cuộc sống của chúng ta bị định hình bởi cấu trúc của thế giới xã hội. Ví dụ, chủng tộc và giới tính điều kiện cơ hội và cách chúng ta hành xử; do đó, các mẫu hành vi (như nhấp vào quảng cáo) tương quan với chủng tộc và giới tính.

2. Sự kém hiệu quả của Sự Mù quáng về Đặc điểm (Mã hóa Thừa)

Ngay cả khi các nhà thiết kế cố gắng loại bỏ các đặc điểm được bảo vệ (như chủng tộc hoặc giới tính) khỏi mô hình, học máy vẫn có thể tái tạo sự bất bình đẳng xã hội:

  • Mã hóa Thừa (Redundant Encoding): Các tính năng mà mô hình học máy sử dụng để phân loại người liên quan đến một biến mục tiêu thường cũng phân loại các cá nhân theo tư cách thành viên trong một tầng lớp cụ thể. Điều này xảy ra bởi vì chủng tộc hoặc giới tính của một cá nhân tương quan với tất cả các loại tính năng có liên quan thống kê đến dự đoán (như thu nhập hoặc mã zip).
  • Phân biệt đối xử vẫn tồn tại: Vì lý do này, các mô hình học máy tái tạo các bất bình đẳng xã hội ngay cả khi các biến được bảo vệ bị loại bỏ khỏi dữ liệu huấn luyện và mô hình. Ví dụ, việc loại bỏ chủng tộc và các đại diện gần giống khỏi hệ thống phân phối quảng cáo của Facebook không tạo ra sự khác biệt nào đối với độ chính xác của hệ thống, nhưng cũng không tạo ra sự khác biệt nào đối với tác động của hệ thống đối với việc theo đuổi sự bình đẳng giữa các chủng tộc.
  • Sự bất bình đẳng trở nên "tự nhiên": Khi các tiêu chí hợp pháp (ví dụ: các cuộc gọi giới thiệu trong phúc lợi trẻ em hoặc thời gian làm việc trong tuyển dụng) được sử dụng nhưng lại được phân bổ không đồng đều giữa các nhóm có lợi thế và bất lợi, các mô hình học máy khuếch đại và làm trầm trọng thêm sự bất bình đẳng về quyền lực, khiến những bất bình đẳng này dường như không thể tránh khỏi, thậm chí là tự nhiên, thay vì là kết quả của các quá trình xã hội mà chúng ta có thể thay đổi.

3. Làm trầm trọng thêm thông qua Vòng lặp Phản hồi (Dự đoán có tính Hiệu suất)

Các mô hình học máy không chỉ dự đoán mà còn có khả năng định hình tương lai mà chúng dự đoán, đặc biệt khi các hành động được thực hiện dựa trên dự đoán của chúng. Đây được gọi là "dự đoán có tính hiệu suất" (performative prediction).

  • Vòng lặp tự củng cố: Hành động dựa trên các dự đoán phản ánh các mô hình bất bình đẳng có thể tạo ra các vòng lặp bất công tự củng cố.
    • Ví dụ về Phúc lợi Trẻ em (AFST): Việc huấn luyện AFST trên dữ liệu thiên vị khiến nó gắn cờ các gia đình Da đen, nghèo hơn là có nguy cơ cao và khiến họ bị điều tra thường xuyên hơn. Kết quả là, trẻ em từ các gia đình này bị đưa vào chăm sóc nuôi dưỡng với tỷ lệ không cân xứng, điều này càng làm tăng sự chênh lệch chủng tộc trong dữ liệu rủi ro được đo lường, sau đó được đưa trở lại AFST, bắt đầu lại vòng lặp. AFST khiến các gia đình nghèo hơn, người Mỹ gốc Phi bị giám sát không mong muốn và thường không cần thiết một cách không cân xứng.
    • Ví dụ về Quảng cáo (p(click)): Nếu mô hình p(click) của Facebook dự đoán rằng phụ nữ có xu hướng nhấp vào quảng cáo việc làm có thu nhập trung bình thấp hơn, nó sẽ hiển thị những quảng cáo đó cho họ nhiều hơn. Điều này khiến họ có xu hướng nhấp vào các quảng cáo đó, cung cấp thêm dữ liệu xác nhận sự chênh lệch giới tính này vào mô hình, tiếp tục củng cố sự bất bình đẳng về thu nhập trong thị trường lao động.
    • Ví dụ về Tư pháp Hình sự (COMPAS): Người Mỹ da đen có nhiều khả năng bị chặn, bắt giữ, buộc tội và kết án nặng hơn. Vì COMPAS dự đoán tái phạm (một kết quả bị phân phối không đồng đều do sự bất công có hệ thống), việc sử dụng nó có thể tạo ra các vòng lặp tự củng cố, khiến sự chênh lệch chủng tộc trong tỷ lệ vỡ nợ (hoặc tái phạm) ngày càng tăng.

Tóm lại, học máy vừa khuếch đại vừa che khuất quyền lực của các tổ chức sử dụng nó. Nó tăng quy mô và tốc độ ra quyết định, làm cho các lựa chọn thiết kế cố định một định kiến nhất định trên quy mô khổng lồ. Điều này khiến việc hợp lý hóa "sự bất bình đẳng cấu trúc liên tục" trở nên dễ dàng hơn, bằng cách chiếu những bất công của quá khứ vào tương lai.

3. Việc thiết kế và tối ưu hóa các hệ thống xếp hạng thuật toán ảnh hưởng đến không gian công cộng ra sao?

Việc thiết kế và tối ưu hóa các hệ thống xếp hạng thuật toán, đặc biệt là News Feed của Facebooktìm kiếm của Google, có ảnh hưởng sâu sắc và mang tính chính trị đối với không gian công cộng. Những hệ thống này thực hiện một loại quyền lực cơ sở hạ tầng vì chúng định hình cách công dân tương tác với nhau, truy cập thông tin và thực hiện quyền tự quản tập thể.

1. Vai trò là Cơ sở hạ tầng Công cộng Kỹ thuật số

Các hệ thống xếp hạng này là giải pháp cho "vấn đề về sự phong phú" thông tin bằng cách sắp xếp một lượng lớn nội dung (đối với News Feed) hoặc trang web (đối với Google Search). Quyền lực của Facebook và Google bắt nguồn từ cách họ sử dụng học máy để giải quyết vấn đề dư thừa này.

  • Định hình Thông tin và Trải nghiệm: Những hệ thống này xác định những gì hàng tỷ người trên toàn cầu đọc, xem và nghe. Chúng sắp xếp, lọc và xếp hạng một lượng lớn nội dung và trang web, định hình những gì chúng ta thấy, đọc, học và thậm chí là cách chúng ta cảm nhận.
  • Cấu trúc Không gian Công dân: Các hệ thống này đã trở thành một phần của cơ sở hạ tầng của lĩnh vực công cộng kỹ thuật số. Chúng định hình cách công dân gặp gỡ và tương tác với nhau, cách họ thảo luận về những khát vọng chung và hình thành những tham vọng được chia sẻ.
  • Quyền lực Nút cổ chai: Vì các hệ thống này áp đặt một sự khan hiếm nhân tạo đối với sự phong phú của thông tin, sự kiểm soát đơn phương của các tập đoàn đối với chúng tạo ra một loại quyền lực nút cổ chai, đe dọa tự do chính trị và khả năng tự quản tập thể.

2. Tác động Chính trị thông qua Lựa chọn Thiết kế

Việc thiết kế và tối ưu hóa các hệ thống xếp hạng không phải là quá trình kỹ thuật trung lập mà là những lựa chọn mang tính chính trị ưu tiên một số lợi ích và giá trị hơn những lợi ích và giá trị khác.

  • Chỉ số Tối ưu hóa: Việc xác định các "chỉ số hàng đầu" (key metrics) mà hệ thống tìm cách tối ưu hóa là lựa chọn thiết kế quan trọng nhất.
    • Facebook: Facebook đã thay đổi News Feed để tối ưu hóa cho Tương tác Xã hội Có ý nghĩa (MSI). Lựa chọn này đã ưu tiên yếu tố xã hội hơn yếu tố công khai và sự tương tác hơn chất lượng. Điều này định hướng lại News Feed khỏi các cuộc thảo luận về giá trị chung (như các bài báo chất lượng cao) và hướng tới các bài đăng từ gia đình và bạn bè, bất kể tầm quan trọng công cộng.
    • Google: Thiết kế của Google ngụ ý rằng các hệ thống kiểm soát quyền truy cập thông tin nên ưu tiên các nguồn được cộng đồng đánh giá là có thẩm quyền.
  • Biện minh Thể chế: Quyền lực của các công ty này bị che giấu đằng sau các chi tiết kỹ thuật và các mục tiêu bề ngoài trung lập. Để quản lý chúng, các công ty nên được yêu cầu cung cấp biện minh thể chế (institutional justification) cho các lựa chọn của họ về các chỉ số hàng đầu, các khái niệm được ước tính (như tính độc hại hoặc chất lượng) và các hướng dẫn gắn nhãn dữ liệu đào tạo.

3. Khuếch đại các Bệnh lý Xã hội (Dự đoán Hiệu suất)

Các hệ thống xếp hạng là một trường hợp dự đoán hiệu suất siêu cấp (hyper performative prediction). Chúng không chỉ dự đoán những gì công dân muốn mà còn định hình những gì họ muốn.

  • Tạo Vòng lặp Phản hồi: Mọi người tương tác với nội dung được Facebook/Google dự đoán họ sẽ tương tác vì nội dung đó được xếp hạng cao hơn. Xếp hạng này định hình hành vi theo cách làm cho dự đoán trở thành sự thật.
  • Thao túng và Gây nghiện: Do động cơ thúc đẩy lợi nhuận quảng cáo, các hệ thống được thiết kế để giữ chân người dùng càng lâu càng tốt. Điều này khuyến khích chúng lan truyền những điều sai sự thật, tạo ra không khí ngờ vực và lưu hành các ý tưởng gây ra những cảm xúc gây nghiện như phẫn nộ. Ví dụ, sự thay đổi MSI của Facebook đã làm tăng "sự chia rẽ" và "sự phẫn nộ" bằng cách thúc đẩy các bài đăng gây kích động.
  • Bong bóng Lọc (Filter Bubbles): Các dự đoán cá nhân hóa về mức độ liên quan sắp xếp mọi người vào các nhóm, gây ra "bong bóng lọc" hoặc "phòng vọng," nơi người dùng chỉ được tiếp xúc với cùng loại nội dung, làm tăng sự phân cực và chia rẽ xã hội.
  • Che khuất Quyền lực: Học máy làm tăng quy mô và tốc độ ra quyết định, nhưng nó cũng che khuất tính chính trị của các lựa chọn thiết kế. Điều này khiến sự bất bình đẳng và các giá trị được xây dựng trong mô hình trở nên "tự nhiên" hoặc không thể tránh khỏi.

Tóm lại, việc thiết kế các hệ thống xếp hạng thuật toán định hình không gian công cộng bằng cách kiểm soát quyền truy cập thông tin và các điều kiện để công dân giao tiếp, định hướng hành vi của họ để tối ưu hóa lợi nhuận, và do đó, vô tình hoặc cố ý, làm xói mòn các điều kiện thông tin và xã hội cần thiết cho sự tự quản tập thể.

4. Đánh giá những hạn chế của luật chống phân biệt đối xử truyền thống, đặc biệt là các học thuyết về "đối xử khác biệt" và "tác động khác biệt", khi áp dụng cho các hệ thống học máy. Thảo luận về cách các nguyên tắc "chống phân loại" và "chống áp bức" mâu thuẫn với nhau và phân tích đề xuất về "Nghĩa vụ Bình đẳng Tích cực" (PEDs) như một giải pháp thay thế.

Nền dân chủ phải đối mặt với một thách thức lớn khi áp dụng luật chống phân biệt đối xử truyền thống vào các hệ thống học máy (ML). Luật phân biệt đối xử, theo cách diễn giải và áp dụng hiện tại, thường không đảm bảo rằng các mô hình học máy được xây dựng để thúc đẩy bình đẳng, và thậm chí có thể ngăn chặn các loại lựa chọn thiết kế cần thiết để giải quyết các mô hình bất bình đẳng.

Dưới đây là đánh giá chi tiết về những hạn chế của luật chống phân biệt đối xử truyền thống (chủ yếu dựa trên luật pháp Hoa Kỳ, nhưng có so sánh với luật Vương quốc Anh) và đề xuất thay thế là Nghĩa vụ Bình đẳng Tích cực (PEDs).

1. Hạn chế của Các Học thuyết Phân biệt đối xử Truyền thống

Luật chống phân biệt đối xử truyền thống xoay quanh hai học thuyết chính: "Đối xử khác biệt" (Disparate Treatment) và "Tác động khác biệt" (Disparate Impact).

A. Hạn chế của Học thuyết "Đối xử Khác biệt" (Chống Phân loại)

Học thuyết "Đối xử khác biệt" (ở Vương quốc Anh là "phân biệt đối xử trực tiếp") xảy ra khi một chính sách hoặc thủ tục sử dụng tư cách thành viên trong một tầng lớp được bảo vệ (chẳng hạn như chủng tộc hoặc giới tính) để đưa ra quyết định. Khi áp dụng cho học máy, điều này thường được hiểu là yêu cầu "chống phân loại"—nghĩa là mô hình không được công khai xem xét các thuộc tính được bảo vệ (A).

Những hạn chế chính:

1.     Mã hóa Dư thừa (Redundant Encoding): Việc loại bỏ các đặc điểm được bảo vệ khỏi mô hình (chống phân loại) thường không loại bỏ thông tin về tư cách thành viên nhóm được bảo vệ. Các tính năng khác (như thu nhập hoặc mã zip) gần như luôn chứa thông tin tương quan với các thuộc tính được bảo vệ vì các mô hình bất bình đẳng xã hội đảm bảo rằng chủng tộc hoặc giới tính tương quan với mọi loại tính năng khác có liên quan thống kê đến dự đoán. Do đó, các mô hình học máy tái tạo các bất bình đẳng xã hội ngay cả khi các biến được bảo vệ bị loại bỏ.

2.     Không hiệu quả và Phản tác dụng: Phương pháp chống phân loại là "sai lầm". Việc loại bỏ các thuộc tính được bảo vệ có thể loại bỏ thông tin liên quan đến dự đoán chính xác, có thể gây hại cho các nhóm mà nó được cho là để thúc đẩy phúc lợi. Ví dụ, loại trừ giới tính khỏi mô hình dự đoán nguy cơ bạo lực có thể phóng đại nguy cơ của phụ nữ vì phụ nữ ít có khả năng phạm tội bạo lực hơn.

3.     Tập trung vào Hình thức thay vì Tác động: Chống phân loại tập trung vào việc tuân thủ quy tắc hình thức (không sử dụng A) hơn là tác động thực tế của hệ thống đối với sự bình đẳng. Phương pháp này tạo ra "một mệnh lệnh thô thiển, phổ quát về sự mù quáng", cho phép các tổ chức tránh các câu hỏi khó về việc liệu hệ thống của họ có làm trầm trọng thêm bất bình đẳng xã hội hay không.

4.     Dễ dàng được Miễn trừ: Các tổ chức như Facebook có thể dễ dàng loại bỏ các đặc điểm được bảo vệ khỏi mô hình phân phối quảng cáo của họ để được miễn trừ khỏi các cáo buộc "đối xử khác biệt," ngay cả khi hành động này không tạo ra sự khác biệt nào đối với việc theo đuổi sự bình đẳng chủng tộc và giới tính.

B. Hạn chế của Học thuyết "Tác động Khác biệt"

Học thuyết "Tác động khác biệt" (ở Vương quốc Anh là "phân biệt đối xử gián tiếp") cấm các hệ thống ra quyết định có vẻ trung lập nhưng có tác động bất lợi không chính đáng đối với các thành viên của các nhóm được bảo vệ. Quy trình kiểm tra tác động khác biệt thường có ba giai đoạn:

1.     Thiết lập tác động khác biệt sơ bộ.

2.     Bị đơn biện minh cho chính sách dựa trên lợi ích kinh doanh hợp pháp ("Sự cần thiết trong kinh doanh").

3.     Nguyên đơn chứng minh có một phương tiện thay thế hợp lý, ít phân biệt đối xử hơn để đạt được cùng mục đích.

Những hạn chế chính đối với Học máy:

1.     Giai đoạn 2 (Biện minh Kinh doanh) quá dễ dàng: Học máy được các công ty sử dụng vì nó chính xác hơn nhiều so với các lựa chọn thay thế. Do đó, theo sự giải thích rộng rãi về biện minh kinh doanh, tác động khác biệt do mô hình tạo ra vừa rõ ràng hơn vừa dễ bảo vệ hơn. Các tòa án thường miễn cưỡng tranh chấp lý do biện minh của doanh nghiệp về các biến mục tiêu mà mô hình dự đoán.

2.     Giai đoạn 3 (Lựa chọn Thay thế Hợp lý) quá khó khăn: Nguyên đơn (thường là công chúng hoặc cơ quan quản lý) thiếu chuyên môn kỹ thuật và quyền truy cập vào dữ liệu, mô hình và tính năng của bị đơn để xác định liệu có tồn tại một mô hình học máy thay thế nào đạt được cùng lợi ích hợp pháp nhưng tạo ra ít tác động khác biệt hơn (ít phân biệt đối xử hơn) hay không. Học máy khiến việc chứng minh một quy trình ra quyết định thay thế cải thiện Pareto hiếm khi có thể được chứng minh.

3.     Thiếu cơ sở để Đánh giá Đánh đổi: Luật tác động khác biệt không cung cấp cơ sở để các thẩm phán lý giải về những gánh nặng hợp lý để áp đặt lên các tổ chức. Vấn đề nằm ở mục đích của luật phân biệt đối xử: nếu nó không làm rõ mục đích là gì, không thể đánh giá liệu một lựa chọn thay thế (ví dụ: áp đặt bình đẳng dân số) có mang lại lợi ích cho các nhóm yếu thế hay không, vì điều này phụ thuộc vào các sự kiện thực tế về sự không chắc chắn và sai số đo lường trong thế giới thực.

4.     Luật pháp đang trở thành công cụ củng cố bất công: Luật phân biệt đối xử có nguy cơ trở thành một công cụ để củng cố sự bất công vì nó cho phép các hệ thống học máy củng cố các mô hình bất bình đẳng ngay cả khi không có ý định phân biệt đối xử rõ ràng.

2. Mâu thuẫn giữa Nguyên tắc "Chống Phân loại" và "Chống Áp bức"

Luật phân biệt đối xử truyền thống bị chi phối bởi một cuộc đấu tranh giữa hai nguyên tắc đối lập, điều mà học máy làm cho trở nên rõ ràng và gay gắt hơn:

A. Nguyên tắc Chống Phân loại (Anti-Classification)

Nguyên tắc này thể hiện cách tiếp cận hình thức đối với đối xử bình đẳng. Nó cho rằng luật phân biệt đối xử nhằm mục đích cấm sử dụng các đặc điểm được bảo vệ trong việc ra quyết định bởi vì chúng không liên quan về mặt đạo đức đến việc phân bổ lợi ích và gánh nặng. Đây là quan điểm "đối xử như mù quáng".

B. Nguyên tắc Chống Áp bức (Anti-Subordination)

Nguyên tắc này mang tính thực chất và tập trung vào việc loại bỏ sự thực thi quyền lực có hệ thống của một nhóm đối với nhóm khác. Nó nhằm mục đích đối đầu và loại bỏ các mối quan hệ lệ thuộc và thống trị giữa các nhóm xã hội. Đây là quan điểm "đối xử như nhận thức".

C. Sự Mâu thuẫn

Trong bối cảnh học máy và bất bình đẳng cấu trúc, hai nguyên tắc này mâu thuẫn hoàn toàn (Trường hợp thứ ba):

  • Chống phân loại cấm sử dụng các danh mục được bảo vệ (như chủng tộc), ngay cả khi làm như vậy sẽ thúc đẩy bình đẳng.
  • Chống áp bức yêu cầu sử dụng các danh mục được bảo vệ (như hành động khẳng định) khi cần thiết để phá bỏ các cấu trúc thống trị và giảm thiểu sự chênh lệch giữa các nhóm có lợi thế và yếu thế. Việc thu hẹp sự chênh lệch kết quả thường đòi hỏi việc sử dụng rõ ràng các đặc điểm được bảo vệ.
  • Học máy làm rõ mâu thuẫn: Mô hình học máy có thể được coi là không phân biệt đối xử theo quan điểm chống phân loại (vì nó loại trừ chủng tộc) nhưng lại làm trầm trọng thêm sự áp bức theo quan điểm chống áp bức (vì nó tái tạo bất bình đẳng). Nếu Facebook muốn cố ý sử dụng chủng tộc để thúc đẩy bình đẳng chủng tộc (chống áp bức), luật pháp có thể ngăn cản họ làm như vậy vì vi phạm chống phân loại.

3. Đề xuất Thay thế: Nghĩa vụ Bình đẳng Tích cực (PEDs)

Để vượt qua những hạn chế và mâu thuẫn này, cần có một cách tiếp cận mới được hướng dẫn bởi lý tưởng Bình đẳng Chính trị. Lý tưởng này tập trung vào việc đảm bảo rằng công dân có thể liên hệ và hoạt động với tư cách là những người bình đẳng về chính trị, loại bỏ sự thống trị và hỗ trợ tính đối ứng.

Đề xuất "Nghĩa vụ Bình đẳng Tích cực" (Positive Equality Duties - PEDs):

1.     Chuyển đổi từ Lệnh cấm sang Nghĩa vụ Tích cực: PEDs là sự chuyển đổi từ các lệnh cấm phân biệt đối xử tiêu cực sang các nghĩa vụ tích cực. Các lệnh cấm tiêu cực có thể không ngăn cản các thể chế vô tình sử dụng học máy để làm trầm trọng thêm bất bình đẳng xã hội cấu trúc.

2.     Cho phép Sử dụng Đặc điểm được Bảo vệ: PEDs sẽ cho phép sử dụng các đặc điểm được bảo vệ trong một tập hợp các ngữ cảnh quyết định được xác định, với điều kiện có cơ sở bằng chứng vững chắc rằng việc làm như vậy thúc đẩy bình đẳng giữa các nhóm.

3.     Công nhận Sự đối xử khác biệt: PEDs không phải là ngoại lệ đối với nguyên tắc đối xử bình đẳng mà là sự thừa nhận rằng đối xử bình đẳng đòi hỏi sự đối xử khác biệt với những người có hoàn cảnh khác biệt. Bình đẳng chính trị mời gọi chúng ta chấp nhận sự cần thiết phải tranh luận về thời điểm và lý do tại sao các bất lợi biện minh cho việc đối xử khác biệt để thúc đẩy bình đẳng.

4.     Yêu cầu Nỗ lực Hợp lý: Các tổ chức sẽ phải chứng minh rằng họ đã thực hiện các biện pháp hợp lý để khám phá cách tốt nhất để thúc đẩy bình đẳng. Điều này bao gồm việc so sánh các cách thay thế để thiết kế các quy trình ra quyết định (bao gồm cả việc sử dụng các đặc điểm được bảo vệ) và thực hiện các bước hợp lý để giải quyết sự chênh lệch được quan sát.

5.     Miễn trừ khỏi Chống Phân loại: Khi các đặc điểm được bảo vệ được sử dụng như một phần của nỗ lực hợp lý để thực hiện PEDs, và có cơ sở bằng chứng vững chắc rằng việc đó sẽ giảm bất bình đẳng, thì việc sử dụng các đặc điểm đó sẽ không cấu thành vi phạm đối xử khác biệt.

6.     Thực thi hành chính: Các PED này nên được thực thi bởi các cơ quan quản lý bình đẳng và quyền dân sự được trao quyền và có đủ nguồn lực, thay vì chủ yếu bởi tòa án áp đặt các biện pháp khắc phục cá nhân ex post.

Tóm lại, PEDs giải quyết mâu thuẫn giữa chống phân loại và chống áp bức bằng cách ưu tiên mục tiêu chống áp bức—đó là loại bỏ sự thống trị và bất bình đẳng cấu trúc—và loại bỏ sự ràng buộc của chống phân loại để cho phép các tổ chức sử dụng học máy như một công cụ để thúc đẩy bình đẳng một cách tích cực và có chủ đích.

5. Xây dựng một lập luận ủng hộ hoặc chống lại việc điều chỉnh Facebook và Google như những "tiện ích dân chủ". Giải thích rõ khái niệm này, đối chiếu nó với tiện ích công cộng truyền thống, và thảo luận về ba nguyên tắc (chống tham nhũng, đa dạng, trải nghiệm chung) có thể được sử dụng để hướng dẫn việc thiết kế lại các hệ thống học máy của họ nhằm hỗ trợ sự phát triển của nền dân chủ.

Dựa trên các nguồn tài liệu, có thể xây dựng lập luận ủng hộ việc điều chỉnh Facebook và Google như những "tiện ích dân chủ" (Democratic Utilities) nhằm đối phó với loại quyền lực cơ sở hạ tầng đặc biệt mà họ thực hiện thông qua việc thiết kế các hệ thống học máy.

I. Khái niệm Tiện ích Dân chủ

Tiện ích Dân chủ là một loại hình tập đoàn mới được đề xuất, có quyền lực cơ sở hạ tầng định hình các điều kiện của tự quản tập thể (collective self-governance).

Mục đích thúc đẩy việc điều tiết các tiện ích dân chủ là nhằm bảo vệ sự phát triển của nền dân chủ.

Facebook và Google được coi là tiện ích dân chủ bởi vì:

1.     Họ kiểm soát cơ sở hạ tầng quan trọng: Các hệ thống xếp hạng của họ (News Feed và tìm kiếm) đã trở thành một phần của cơ sở hạ tầng của không gian công cộng kỹ thuật số, một công cụ thiết yếu để công dân tiếp cận thông tin, tổ chức và đưa ra các quyết định tập thể.

2.     Họ thực hiện Quyền lực Nút cổ chai: Sự kiểm soát đơn phương đối với các hệ thống xếp hạng này tạo ra một loại quyền lực nút cổ chai, đe dọa tự do và khả năng tự quản của công dân.

3.     Họ định hình Ý muốn và Hành vi: Quyền lực cơ sở hạ tầng của họ không chỉ cho phép mọi người làm những gì họ muốn mà còn định hình những gì mọi người muốn làm, hướng sự chú ý và định hình khả năng của công dân để thực hiện quyền tự quản tập thể.

II. Đối chiếu với Tiện ích Công cộng Truyền thống

Quan niệm về tiện ích dân chủ dựa trên Quan niệm Chính trị về tiện ích công cộng thời kỳ Cấp Tiến, khác biệt với Quan niệm Kinh tế hẹp hơn.

Đặc điểm

Tiện ích Công cộng Truyền thống (Quan niệm Kinh tế)

Tiện ích Dân chủ (Quan niệm Chính trị/Học máy)

Bản chất

Tập đoàn độc quyền tự nhiên (ví dụ: đường sắt, điện, điện thoại) kiểm soát hàng hóa vật lý.

Tập đoàn thực thi quyền lực cơ sở hạ tầng thông qua việc thiết kế hệ thống học máy.

Quyền lực Nút cổ chai

Bắt nguồn từ sự kiểm soát hàng hóa công cộng khan hiếm.

Bắt nguồn từ thiết kế các hệ thống xếp hạng sử dụng dự đoán để hướng sự chú ý của con người và áp đặt khan hiếm nhân tạo lên thông tin dồi dào.

Mục tiêu Điều tiết

Tập trung vào vấn đề kinh tế như giá cả, chống độc quyền và đảm bảo tiếp cận không phân biệt đối xử.

Tập trung vào vấn đề chính trị như bảo vệ tự do chính trị và khả năng tự quản tập thể.

Quy định Phù hợp

Các biện pháp cứng nhắc, như phê duyệt trước kế hoạch và quản lý vi mô (thường không hiệu quả trong môi trường công nghệ thay đổi nhanh chóng).

Cần sự đổi mới quy địnhquản trị dân chủ thông qua các cơ chế tham gia được trao quyền, tập trung vào tính lặp lại và thử nghiệm.

III. Lập luận Ủng hộ Tiện ích Dân chủ

Lập luận ủng hộ việc điều chỉnh Facebook và Google như tiện ích dân chủ là cần thiết để đối phó với bản chất chính trị và quyền lực cơ sở hạ tầng của các hệ thống học máy của họ.

  • Tính chính trị của Học máy: Các lựa chọn thiết kế hệ thống xếp hạng của Facebook và Google không trung lập mà ưu tiên một số lợi ích và giá trị hơn những lợi ích và giá trị khác (ví dụ: tối ưu hóa cho tương tác thay vì chất lượng thông tin công khai).
  • Thất bại của Quy định Hiện có: Các mục tiêu bảo vệ cạnh tranh và quyền riêng tư (thường là trọng tâm của các đề xuất quy định hiện tại) là quan trọng công cụ, nhưng không phải là nội tại, và chúng không đủ để đảm bảo rằng các hệ thống của Facebook và Google hỗ trợ sự phát triển của nền dân chủ. Việc tập trung vào cạnh tranh kinh tế có thể chưa đủ.
  • Cấu trúc lại Trách nhiệm giải trình: Khung tiện ích dân chủ yêu cầu thay đổi cấu trúc quản trị để buộc các công ty phải biện minh thể chế cho các lựa chọn thiết kế của họ, thay vì chỉ cung cấp các giải thích kỹ thuật mơ hồ.

IV. Ba Nguyên tắc Hướng dẫn Thiết kế Lại Hệ thống Học máy

Các nguyên tắc sau đây được đề xuất để hướng dẫn việc thiết kế và đánh giá các hệ thống học máy của tiện ích dân chủ, đảm bảo chúng hỗ trợ sự phát triển của nền dân chủ:

1. Chống Tham nhũng (Anti-Corruption)

  • Khái niệm: Nguyên tắc này yêu cầu Facebook và Google phải thiết kế các hệ thống ưu tiên lợi ích công cộng hơn doanh thu quảng cáo.
  • Mục đích: Đáp lại lời phê bình rằng nền kinh tế chính trị của quảng cáo kỹ thuật số khuyến khích các công ty xây dựng các hệ thống thu hút và giữ chân sự chú ý bằng cách làm hỏng không gian công cộng (ví dụ: lan truyền thông tin sai lệch hoặc nội dung gây nghiện).
  • Cơ chế Áp dụng: Áp đặt bức tường lửa cấu trúc (structural firewalls) để tách biệt các hệ thống xếp hạng cơ sở hạ tầng (News Feed, Tìm kiếm) khỏi các hệ thống phân phối quảng cáo. Sự tách biệt này nhằm điều chỉnh động lực sản xuất, đảm bảo các tiện ích dân chủ xem xét đầy đủ lợi ích công cộng.

2. Đa dạng (Diversity)

  • Khái niệm: Nguyên tắc này yêu cầu các hệ thống phải thúc đẩy sự đa dạng của tiếng nói và giá trị trong không gian công cộng bằng cách khuyến khích các cuộc gặp gỡ ngẫu nhiên giữa các công dân và ý tưởng khác biệt.
  • Mục đích: Chống lại xu hướng cá nhân hóa và tạo ra "bong bóng lọc" hoặc "phòng vọng" do các hệ thống xếp hạng dự đoán hành vi gây ra.
  • Cơ chế Áp dụng: Yêu cầu các công ty thiết kế lại hệ thống xếp hạng để chủ động thúc đẩy các nguồn ý tưởng và thông tin đa dạng. Ví dụ, họ có thể xây dựng các mô hình dự đoán nội dung mà người dùng không muốn xem (thay vì nội dung họ muốn xem) và thỉnh thoảng hiển thị nội dung đó (tạo ra "nút tình cờ"). Nó cũng có thể được hình dung lại từ Học thuyết Công bằng (Fairness Doctrine) trước đây áp dụng cho phát sóng.

3. Trải nghiệm Chung (Shared Experience)

  • Khái niệm: Nguyên tắc này yêu cầu các hệ thống phải tạo ra trải nghiệm chung và phổ biến rộng rãi thông tin công cộng để thúc đẩy mục đích chung giữa các công dân đa dạng.
  • Mục đích: Đảm bảo rằng công dân có một nền tảng thông tin chung về các sự kiện hoặc chủ đề quan trọng, điều cần thiết để hỗ trợ lòng tin xã hội, các tương tác xã hội và hành động tập thể.
  • Cơ chế Áp dụng: Xây dựng các hệ thống xếp hạng để đảm bảo phân phối rộng rãi thông tin về các sự kiện và khoảnh khắc quan trọng của công chúng, hiển thị nội dung đó ở vị trí cao hơn trong News Feed hoặc kết quả tìm kiếm của mọi người.

Tóm lại, việc điều chỉnh Facebook và Google như các tiện ích dân chủ là một lập luận chính trị nhằm tái cấu trúc quyền lực của họ thông qua các nghĩa vụ và cơ chế quản trị mới, đảm bảo rằng việc thiết kế các hệ thống học máy của họ phục vụ các mục tiêu dân chủ, chứ không phải chỉ là mục tiêu kỹ trị trung lập hoặc lợi nhuận thương mại.

Đọc sách Online

Đăng nhận xét

Mới hơn Cũ hơn