Podcast
Báo
cáo Tóm tắt: Các Chủ đề và Lập luận chính từ "Thuật toán vì con người"
Tài liệu này tổng
hợp các lập luận trung tâm và các nghiên cứu điển hình từ "Thuật toán vì
con người", khám phá mối quan hệ phức tạp giữa học máy, quản trị và tương
lai của nền dân chủ. Lập luận cốt lõi cho rằng học máy không phải là một công
cụ kỹ thuật trung lập mà là một quá trình chính trị không thể tránh khỏi, nhúng
các giá trị và ưu tiên vào các hệ thống ra quyết định có tác động sâu rộng.
Bằng cách phân tích các công cụ dự đoán như Công cụ Sàng lọc Gia đình Allegheny
(AFST) và COMPAS, tài liệu cho thấy cách các thuật toán có thể tái tạo và
khuếch đại các bất bình đẳng xã hội, đặc biệt là về chủng tộc và kinh tế.
Các lựa chọn thiết
kế trong học máy—từ việc xác định biến mục tiêu và thu thập dữ liệu huấn luyện
đến việc triển khai các dự đoán—đặt ra những câu hỏi đạo đức và chính trị cơ
bản. Tài liệu chỉ ra rằng các khuôn khổ pháp lý hiện hành, đặc biệt là luật
chống phân biệt đối xử, không đủ sức để giải quyết những thách thức này, thường
bị giới hạn bởi các quan niệm hình thức về sự bình đẳng mà bỏ qua các bất công
mang tính cấu trúc.
Để đối phó, một
khuôn khổ điều tiết mới được đề xuất, xoay quanh lý tưởng về "bình đẳng
chính trị" và việc thiết lập các "Nghĩa vụ Bình đẳng Tích cực"
(PEDs). Cách tiếp cận này ủng hộ việc sử dụng có chủ ý các đặc điểm được bảo vệ
để khắc phục những bất lợi mang tính hệ thống.
Phân tích sau đó
chuyển sang các gã khổng lồ công nghệ như Facebook và Google, xác định chúng là
các "tiện ích dân chủ" thực thi "quyền lực hạ tầng" đối với
không gian công cộng kỹ thuật số. Các hệ thống xếp hạng của chúng, được thúc
đẩy bởi mô hình kinh doanh dựa trên quảng cáo, định hình diễn ngôn công cộng
bằng cách tối ưu hóa sự tương tác, thường gây tổn hại cho các giá trị dân chủ
như sự đa dạng và trải nghiệm chung. Do đó, quy định nên tập trung vào việc tái
cấu trúc các động lực này, có thể thông qua các "bức tường lửa cấu
trúc" và thiết lập các cơ chế quản trị có sự tham gia được trao quyền để
đảm bảo rằng việc thiết kế các hệ thống này hỗ trợ sự phát triển của nền dân
chủ thay vì làm suy yếu nó. Cuối cùng, thách thức không phải là tối ưu hóa dân
chủ thông qua dự đoán, mà là bảo vệ khả năng của dân chủ để đưa ra các lựa chọn
tập thể tự do, thoát khỏi sự kìm kẹp của quá khứ.
I. Bản chất Chính trị của Học máy: Nghiên cứu điển hình về AFST
Lập luận trung tâm
của tài liệu là học máy (ML) mang bản chất chính trị. Các lựa chọn trong việc
thiết kế và triển khai các mô hình ML không chỉ là kỹ thuật; chúng ưu tiên lợi
ích của một số nhóm xã hội hơn những nhóm khác và bảo vệ một số giá trị cơ bản
trong khi vi phạm những giá trị khác. Điều này làm cho việc sử dụng ML trong
các lĩnh vực công trở thành một vấn đề quản trị dân chủ cốt lõi.
Công cụ Sàng lọc
Gia đình Allegheny (AFST)
Công cụ Sàng lọc
Gia đình Allegheny (AFST) là một ví dụ điển hình về tính chính trị của ML. Được
phát triển bởi văn phòng Trẻ em, Thanh thiếu niên và Gia đình (CYF) của Hạt
Allegheny, Pennsylvania, AFST là một thuật toán ML nhằm dự đoán nguy cơ trẻ em
bị lạm dụng hoặc bỏ bê.
- Mục tiêu: AFST được tạo
ra với hai mục tiêu chính:
1.
Giảm
số trường hợp bạo lực bị bỏ qua một cách sai lầm.
2.
Giải
quyết sự chênh lệch chủng tộc trong việc cung cấp phúc lợi trẻ em.
- Cơ chế: Công cụ này
tạo ra một điểm số rủi ro từ 1 (thấp nhất) đến 20 (cao nhất) cho mỗi cuộc
gọi đến đường dây nóng báo cáo lạm dụng. Điểm số này thông báo cho quyết định
có nên cử một nhân viên xã hội đến điều tra hay không.
- Hậu quả không
mong muốn:
Mặc dù được phát triển với sự cẩn trọng và có sự tham gia của cộng đồng,
AFST đã tái tạo và làm trầm trọng thêm các mô hình bất bình đẳng chủng tộc
và kinh tế.
- Các gia đình
nghèo và người Mỹ gốc Phi bị giám sát không cân xứng.
- Tại Hạt Allegheny,
38% cuộc gọi đến đường dây nóng liên quan đến trẻ em Da đen, gấp đôi tỷ lệ
dân số của họ.
- Cứ 1.000 trẻ
em Da đen thì có 8 trẻ bị đưa ra khỏi nhà, so với 1,7 trên 1.000 trẻ em
Da trắng.
- Xung đột về
Giá trị:
Việc triển khai AFST đã làm nổi bật những bất đồng tiềm ẩn về các giá trị
trong CYF:
- Nhân viên xã
hội:
Cho rằng quyết định nên dựa trên mức độ nghiêm trọng của cáo buộc cụ thể.
- Giám sát
viên và Quản lý: Thích tập trung vào các mẫu trong dữ liệu hành
chính để dự đoán rủi ro tổng thể của cá nhân, cho rằng các sự cố đơn lẻ
có thể gây hiểu lầm.
Trường hợp AFST
minh họa rằng ngay cả với ý định tốt nhất, các công cụ dự đoán có thể củng cố
các bất bình đẳng hiện có. Nó cũng cho thấy việc áp dụng ML buộc các tổ chức
phải đối mặt với các cuộc tranh luận về giá trị và mục tiêu vốn trước đây bị
che giấu hoặc bỏ qua.
Tác động lên
Quyền tự chủ của Con người
Việc áp dụng các
công cụ như AFST đã làm thay đổi điểm kiểm soát của con người trong các quy
trình ra quyết định.
- Giảm quyền tự
chủ:
Nhân viên xã hội có ít quyền tự chủ hơn để thực hiện phán đoán chuyên môn
và bỏ qua các dự đoán của AFST. Các cuộc gọi có điểm rủi ro cao (trên 16)
hiện được tự động gắn cờ để điều tra.
- Mất quyền lực
của công dân:
Những người chịu sự phán xét của thuật toán cảm thấy bị tước quyền, không
thể hiểu hoặc tác động đến logic của nó. Như một người mẹ, Pamela Simmons,
đã nói, có thể "sửa chữa nó với một người," nhưng với AFST, bạn
"không thể sửa chữa con số đó."
II.
Giải mã Quy trình Học máy: Các Lựa chọn và Hậu quả
Tác động của một
hệ thống ML được định hình bởi một chuỗi các lựa chọn của con người. Những lựa
chọn này có thể được phân thành hai loại chính: thiết kế mô hình và triển khai
mô hình.
Các Lựa chọn
trong Thiết kế Mô hình
1.
Biến Đích (Kết quả Dự đoán):
o Đây là lựa chọn
quan trọng nhất, xác định kết quả mà mô hình sẽ học cách dự đoán. Việc dịch một
vấn đề mơ hồ (ví dụ: "khả năng tín dụng", "lạm dụng trẻ
em") thành một biến đích cụ thể, có thể đo lường được luôn liên quan đến sự
phán đoán và ưu tiên các giá trị.
o Ví dụ AFST:
§ Phiên bản ban đầu
sử dụng hai mô hình: một mô hình dự đoán khả năng tái giới thiệu trong
vòng hai năm, và mô hình kia dự đoán khả năng đưa vào trại nuôi dưỡng
trong vòng hai năm.
§ Biến đích
"tái giới thiệu" được phát hiện là có vấn đề vì nó dựa trên một hoạt
động (các cuộc gọi giới thiệu) mà chính CYF biết là có thành kiến chủng tộc, do
đó đã xây dựng sự phân biệt đối xử vào mô hình.
§ Hạt Allegheny cuối
cùng đã loại bỏ mô hình dự đoán tái giới thiệu, nhận ra rằng "đưa vào trại
nuôi dưỡng" là một đại diện tốt hơn cho sự tổn hại nghiêm trọng và ít bị ảnh
hưởng bởi thành kiến của người gọi ban đầu.
2.
Dữ liệu Huấn luyện:
o Dữ liệu không phải
là sự phản ánh khách quan của thực tế mà là kết quả của các lựa chọn của con
người về những gì cần đo lường và cách thức đo lường. Chất lượng và tính đại diện
của dữ liệu huấn luyện quyết định những gì mô hình học được.
o Các vấn đề về dữ
liệu:
§ Thiên vị &
Không đại diện:
Dữ liệu của AFST chủ yếu đến từ các dịch vụ công (phúc lợi, tư pháp vị thành
niên), do đó đại diện quá mức cho các hộ gia đình có thu nhập thấp và người Mỹ
gốc Phi, trong khi loại trừ dữ liệu từ các gia đình giàu có hơn (ví dụ: bảo hiểm
y tế tư nhân).
§ Thiên vị Lịch sử: Các mô hình được
đào tạo trên dữ liệu lịch sử sẽ tái tạo lại các định kiến trong quá khứ. Ví dụ,
một thuật toán tuyển sinh của Bệnh viện St George ở London đã học được cách
phân biệt đối xử với phụ nữ và các nhóm thiểu số từ các quyết định tuyển sinh
trong quá khứ.
§ Thiên vị Hiện tại: Dữ liệu có thể phản
ánh các định kiến hiện tại của người dùng. Ví dụ, Google có nhiều khả năng hiển
thị quảng cáo hồ sơ bắt giữ cho các tên nghe có vẻ là người Da đen vì người
dùng có xu hướng nhấp vào các quảng cáo đó nhiều hơn cho những tìm kiếm đó.
3.
Tính năng (Features):
o Đây là các thuộc
tính (biến) được sử dụng để đưa ra dự đoán. Việc loại bỏ các thuộc tính được bảo
vệ như chủng tộc thường không loại bỏ được sự thiên vị.
o Mã hóa thừa
(Redundant Encoding):
Các biến khác (như thu nhập, mã zip, tỷ lệ kết án) thường tương quan chặt chẽ với
các thuộc tính được bảo vệ. Do đó, một mô hình vẫn có thể học được các mẫu phân
biệt đối xử ngay cả khi không có quyền truy cập trực tiếp vào dữ liệu chủng tộc.
o Học máy chính xác
hơn có thể chỉ đơn giản là phản ánh sự bất bình đẳng xã hội hiện có một cách
chính xác hơn.
4.
Mô hình (Thuật toán):
o Lựa chọn thuật
toán cụ thể (ví dụ: cây quyết định, hồi quy logistic) liên quan đến sự đánh đổi
giữa độ chính xác, khả năng diễn giải và hiệu quả tính toán. Trong các bối cảnh
rủi ro cao như bảo vệ trẻ em, các mô hình dễ diễn giải hơn thường được ưu tiên.
Các Lựa chọn
trong Triển khai Mô hình
1.
Từ Dự đoán đến Quyết định:
o Các tổ chức phải
quyết định cách sử dụng các dự đoán: để thay thế hay hỗ trợ phán
đoán của con người.
o Mặc dù AFST được
thiết kế để "thông báo" cho các quyết định, trên thực tế, nó ngày
càng thay thế quyền tự chủ của nhân viên, "huấn luyện các nhân viên tiếp
nhận" để tuân theo các khuyến nghị của nó.
o Cách trình bày dự
đoán cũng quan trọng. AFST sử dụng thang điểm 1-20 được mã hóa màu sắc, nhưng mối
quan hệ giữa các điểm và rủi ro thực tế là phi tuyến tính, một sự phức tạp có
thể không được truyền đạt rõ ràng cho người dùng cuối.
2.
Từ Quyết định đến Hành động (Vòng lặp Phản hồi):
o Các hành động được
thực hiện dựa trên dự đoán tạo ra dữ liệu mới, sau đó được đưa trở lại mô hình,
có khả năng tạo ra các vòng lặp tự củng cố.
o Ví dụ: Nếu các gia đình
Da đen bị điều tra thường xuyên hơn do điểm AFST cao, họ sẽ tạo ra nhiều dữ liệu
hành chính hơn, điều này có thể dẫn đến điểm số cao hơn trong tương lai, làm
gia tăng sự chênh lệch ban đầu.
III.
Thách thức về Công bằng: Những Đánh đổi trong Công bằng Thuật toán
Cuộc tranh luận
xung quanh các công cụ đánh giá rủi ro hình sự, đặc biệt là COMPAS, làm nổi bật
những khó khăn trong việc định nghĩa và thực thi "công bằng" trong
học máy.
Nghiên cứu điển
hình COMPAS
- COMPAS
(Correctional Offender Management Profiling for Alternative Sanctions): Một công cụ
dự đoán nguy cơ tái phạm của bị cáo, được sử dụng trong các quyết định về
bảo lãnh và tạm tha trên khắp Hoa Kỳ.
- Cáo buộc của
ProPublica:
Một cuộc điều tra của ProPublica năm 2016 cho rằng COMPAS có "thành
kiến chống lại người da đen". Phân tích của họ cho thấy:
- Công cụ này
có nhiều khả năng dán nhãn sai các bị cáo Da đen là rủi ro cao (dương
tính giả) và dán nhãn sai các bị cáo da trắng là rủi ro thấp (âm tính giả).
- Tỷ lệ dương
tính giả đối với bị cáo Da đen là 45%, so với 23% đối với bị cáo da trắng.
- Tỷ lệ âm
tính giả đối với bị cáo da trắng là 48%, so với 28% đối với bị cáo Da
đen.
Các Định nghĩa
Toán học về Công bằng và Sự bất khả thi
Cuộc tranh luận về
COMPAS đã thúc đẩy một lĩnh vực nghiên cứu trong khoa học máy tính khám phá các
định nghĩa toán học khác nhau về công bằng, mỗi định nghĩa đều cố gắng nắm bắt
một khía cạnh của sự đối xử bình đẳng.
|
Định nghĩa Công
bằng |
Mô tả |
|
Cân bằng Tỷ
lệ Lỗi |
Yêu cầu tỷ lệ
dương tính giả (FPR) và tỷ lệ âm tính giả (FNR) phải bằng nhau giữa các nhóm
(ví dụ: người Da đen và người Da trắng). Đây là tiêu chí mà ProPublica đã sử
dụng. |
|
Hiệu chuẩn
(Calibration) |
Yêu cầu một điểm
số rủi ro phải có cùng ý nghĩa đối với tất cả các nhóm. Ví dụ, trong số tất
cả những người được điểm rủi ro là 7, tỷ lệ tái phạm thực tế phải giống nhau
cho cả người Da đen và người Da trắng. Đây là tiêu chí mà Northpointe, công
ty tạo ra COMPAS, đã bảo vệ. |
|
Chống Phân
loại |
Yêu cầu mô hình
không được sử dụng các thuộc tính được bảo vệ (như chủng tộc) hoặc các biến
tương quan chặt chẽ với chúng làm đầu vào. |
|
Bình đẳng Dân
số |
Yêu cầu tỷ lệ
kết quả tích cực (ví dụ: được dán nhãn rủi ro cao) phải bằng nhau giữa các
nhóm. |
Định lý Bất khả
thi: Một phát hiện quan trọng là khi
tỷ lệ cơ sở của một kết quả (ví dụ: tỷ lệ tái phạm thực tế) khác nhau giữa các
nhóm, một mô hình dự đoán không thể đồng thời thỏa mãn cả hiệu chuẩn và
cân bằng tỷ lệ lỗi.
- Trong trường
hợp của COMPAS, vì tỷ lệ tái phạm thực tế cao hơn ở các bị cáo Da đen so với
các bị cáo da trắng trong dữ liệu, một mô hình hoặc có thể được hiệu chuẩn
(đảm bảo điểm số có ý nghĩa như nhau) hoặc có tỷ lệ lỗi bằng nhau, nhưng
không thể có cả hai.
- Sự đánh đổi
này không phải là một sự thật toán học trừu tượng mà là sự phản ánh của
các bất bình đẳng xã hội được mã hóa trong dữ liệu.
Phê bình về Công
bằng Toán học
Tác giả lập luận
rằng việc tìm kiếm các định nghĩa toán học về công bằng nhóm mắc hai sai lầm cơ
bản:
1.
Áp dụng sai nguyên tắc: Nguyên tắc đối xử
bình đẳng áp dụng cho các quyết định của con người, không phải các dự
đoán của máy móc. Điều quan trọng là các dự đoán phải được hiệu chuẩn tốt để
con người có thể sử dụng chúng để đưa ra các quyết định công bằng. Việc áp đặt
các ràng buộc công bằng khác lên mô hình có thể làm sai lệch dự đoán và dẫn đến
các quyết định kém công bằng hơn.
2.
Che khuất tranh luận chính trị: Bằng cách nhúng một
cách giải thích cụ thể về sự bình đẳng vào mã kỹ thuật, các định nghĩa công bằng
toán học đặt nó ngoài tầm kiểm soát của công chúng và sự tranh giành chính trị.
Chúng ngăn cản các cuộc thảo luận cần thiết về việc khi nào và tại sao sự khác
biệt giữa các nhóm có thể liên quan về mặt đạo đức đến các quyết định khác
nhau.
IV.
Luật pháp Hiện hành và những Hạn chế: Chống Phân biệt đối xử trong Kỷ nguyên AI
Luật chống phân
biệt đối xử hiện hành, đặc biệt là ở Hoa Kỳ, không được trang bị tốt để giải
quyết các tác động phân biệt đối xử của học máy. Hai học thuyết pháp lý chính
là đối xử khác biệt và tác động khác biệt.
Nghiên cứu điển
hình: Hệ thống Phân phối Quảng cáo của Facebook
- Hệ thống của
Facebook sử dụng các mô hình như
p(nhấp)để dự đoán xác suất một người dùng sẽ nhấp vào một quảng cáo cụ thể, sau đó phân phối quảng cáo cho những người dùng có khả năng tương tác cao nhất. - Ngay cả khi
nhà quảng cáo không nhắm mục tiêu theo giới tính, nếu phụ nữ có xu hướng
nhấp vào quảng cáo cho các công việc có thu nhập thấp hơn và nam giới nhấp
vào quảng cáo cho các công việc có thu nhập cao hơn, hệ thống sẽ tự nhiên phân
phối các quảng cáo có thu nhập thấp hơn cho phụ nữ và các quảng cáo có thu
nhập cao hơn cho nam giới, củng cố sự bất bình đẳng giới trên quy mô lớn.
Phân tích các Học
thuyết Pháp lý
1.
Đối xử khác biệt (Chống Phân loại):
o Học thuyết này cấm
việc sử dụng có chủ ý các đặc điểm được bảo vệ (chủng tộc, giới tính, v.v.)
trong việc ra quyết định.
o Hạn chế: Như đã thảo luận,
việc chỉ cần loại bỏ các đặc điểm được bảo vệ khỏi một mô hình ML thường không
hiệu quả do "mã hóa thừa". Các công ty như Facebook có thể dễ dàng
tuân thủ hình thức của luật này trong khi hệ thống của họ vẫn tạo ra các kết quả
phân biệt đối xử.
2.
Tác động khác biệt:
o Học thuyết này giải
quyết các thực tiễn trung lập về hình thức nhưng có tác động bất lợi không cân
xứng đối với một nhóm được bảo vệ. Nó liên quan đến một quy trình ba giai đoạn:
1.
Nguyên đơn: Phải chứng minh rằng một thực tiễn gây ra
tác động khác biệt. Với ML, điều này có thể dễ dàng hơn vì các hệ thống thường
tạo ra dữ liệu rõ ràng về sự chênh lệch.
2.
Bị đơn: Có thể biện minh cho thực tiễn bằng cách
chứng minh rằng nó cần thiết cho hoạt động kinh doanh. Các công ty có thể dễ
dàng lập luận rằng một mô hình ML chính xác là cần thiết cho kinh doanh vì nó tối
ưu hóa hiệu quả hoặc lợi nhuận.
3.
Nguyên đơn: Phải chứng minh rằng có một phương tiện
thay thế, ít phân biệt đối xử hơn mà vẫn đạt được cùng một mục đích kinh doanh.
Điều này cực kỳ khó khăn đối với nguyên đơn, đặc biệt là khi không có quyền
truy cập vào dữ liệu, mô hình và các tính năng độc quyền của công ty.
Xung đột Trung
tâm: Chống Phân loại vs. Chống Áp bức
Tác giả lập luận
rằng luật chống phân biệt đối xử bị giằng xé giữa hai mục đích cạnh tranh:
- Chống Phân loại: Sai lầm của
phân biệt đối xử là việc sử dụng các tiêu chí không liên quan về mặt đạo đức.
Nó đòi hỏi sự mù quáng đối với các đặc điểm được bảo vệ.
- Chống Áp bức: Sai lầm của
phân biệt đối xử là nó củng cố các cấu trúc quyền lực bất công và sự áp bức
của các nhóm bị thiệt thòi trong lịch sử. Nó có thể yêu cầu các hành động
có ý thức về chủng tộc/giới tính để khắc phục sự bất bình đẳng.
Học máy buộc chúng
ta phải đối mặt với sự căng thẳng này. Các hệ thống như p(click)
có thể tuân thủ nguyên tắc chống phân loại nhưng vẫn vi phạm nguyên tắc chống
áp bức. Luật pháp hiện hành đang có nguy cơ bị ràng buộc bởi logic chống phân
loại, khiến nó trở thành một công cụ cùn để theo đuổi công lý xã hội.
V.
Facebook và Google: Quyền lực Hạ tầng và Sự tha hóa Không gian Công cộng
Facebook và Google
không chỉ là các công ty công nghệ; chúng đã trở thành các thực thể thực thi
một loại quyền lực hạ tầng đối với không gian công cộng kỹ thuật số.
Chúng không kiểm soát nội dung, nhưng chúng kiểm soát kiến trúc xác định ai
thấy gì.
Hệ thống Xếp hạng
như Cơ sở hạ tầng
- Giải quyết vấn
đề Phong phú:
Cả Facebook News Feed và Google Search đều giải quyết "vấn đề về sự
phong phú"—sự tồn tại của quá nhiều thông tin.
- Facebook
News Feed:
Sắp xếp hàng ngàn mẩu nội dung tiềm năng và xếp hạng chúng dựa trên dự
đoán về nội dung mà người dùng có khả năng tương tác nhất.
- Google
Search (PageRank và hơn thế nữa): Sắp xếp hàng tỷ trang web để trả lời
một truy vấn, xếp hạng chúng dựa trên dự đoán về mức độ liên quan và quyền
uy.
- Tính Hiệu lực
(Performativity): Các hệ thống xếp hạng này không chỉ dự đoán hành
vi; chúng định hình nó.
- Bạn tương
tác với nội dung mà Facebook dự đoán bạn sẽ tương tác vì nó được
hiển thị ở đầu News Feed của bạn.
- Điều này tạo
ra một vòng lặp trong đó các dự đoán của nền tảng trở thành sự thật, định
hình sở thích và niềm tin của công dân ngay từ đầu.
Phê bình về Sự
tha hóa (Critique of Corruption)
Mô hình kinh doanh
của Facebook và Google, dựa trên quảng cáo nhắm mục tiêu, tạo ra các động lực
làm tha hóa không gian công cộng.
- Tối đa hóa Sự
chú ý:
Mục tiêu chính của các hệ thống xếp hạng là giữ người dùng trên nền tảng
càng lâu càng tốt để thu thập nhiều dữ liệu hơn cho các hệ thống quảng cáo
sinh lợi.
- Ưu tiên Tương
tác:
Điều này dẫn đến việc ưu tiên nội dung gây ra phản ứng cảm xúc mạnh mẽ (phẫn
nộ, sợ hãi) hơn là nội dung có thông tin, cân bằng hoặc thúc đẩy diễn ngôn
công dân lành mạnh. Ví dụ, sự thay đổi của Facebook sang chỉ số
"Tương tác Xã hội Có ý nghĩa" (MSI) đã được phát hiện là làm
tăng sự chia rẽ và phẫn nộ.
- Bong bóng Lọc
và Phân cực:
Các hệ thống được cá nhân hóa cao tạo ra "bong bóng lọc", trong
đó người dùng chủ yếu tiếp xúc với các quan điểm mà họ đã đồng ý, làm xói
mòn kiến thức chung và làm sâu sắc thêm sự phân cực xã hội.
Quyền lực Nút cổ
chai (Bottleneck Power)
Facebook và Google
hoạt động như những người gác cổng hoặc các điểm tắc nghẽn trong hệ sinh thái
thông tin.
- Chúng kiểm
soát quyền truy cập vào khán giả và thông tin, đóng một vai trò quan trọng
đối với các hoạt động cơ bản của công dân như tổ chức chính trị (ví dụ: cuộc
đình công của giáo viên Tây Virginia), tiếp cận tin tức và tham gia vào
các cuộc tranh luận công khai.
- Sự kiểm soát
đơn phương của họ đối với cơ sở hạ tầng này là một hình thức quyền lực tư
nhân tập trung, không chịu sự giám sát dân chủ hiệu quả.
VI.
Con đường phía trước: Điều tiết vì Dân chủ
Để giải quyết
quyền lực hạ tầng của Facebook và Google, cần có một cách tiếp cận quy định
mới, vượt ra ngoài các khuôn khổ chống độc quyền hoặc quyền riêng tư truyền
thống.
Tái định hình Quy
định: Tiện ích Dân chủ
- Quan niệm
Chính trị về Tiện ích Công cộng: Thay vì định nghĩa kinh tế hẹp về độc
quyền tự nhiên, tác giả đề xuất khôi phục lại quan niệm chính trị rộng lớn
hơn của Thời kỳ Tiến bộ, trong đó các tiện ích công cộng là các ngành công
nghiệp quan trọng đối với đời sống công cộng và do đó phải chịu sự kiểm
soát dân chủ.
- Tiện ích Dân
chủ:
Facebook và Google nên được coi là "tiện ích dân chủ"—các tập
đoàn mà quyền lực hạ tầng của chúng định hình khả năng tự quản tập thể của
công dân. Mục tiêu điều tiết chúng nên là bảo vệ và thúc đẩy sự phát triển
của nền dân chủ.
Các Nguyên tắc
Hướng dẫn cho Tiện ích Dân chủ
Thiết kế các hệ
thống xếp hạng của Facebook và Google nên được hướng dẫn bởi các nguyên tắc ủng
hộ một không gian công cộng lành mạnh:
1.
Chống tha hóa: Thiết lập các "bức tường lửa cấu
trúc" để tách biệt các động lực thương mại của quảng cáo khỏi việc thiết kế
cơ sở hạ tầng thông tin. Điều này sẽ yêu cầu các quyết định về thiết kế News
Feed và Search phải ưu tiên lợi ích công cộng hơn là doanh thu quảng cáo.
2.
Đa dạng: Chủ động thiết kế các hệ thống để cho
công dân tiếp xúc với các quan điểm và ý tưởng đa dạng mà họ sẽ không tự chọn.
Các cơ chế như "nút tình cờ" hoặc các thuật toán thúc đẩy sự đa dạng
địa lý có thể chống lại tác động của bong bóng lọc.
3.
Trải nghiệm chung: Xây dựng cơ sở hạ tầng thông tin
công dân để tạo ra các trải nghiệm và điểm tham chiếu chung, vốn rất quan trọng
cho lòng tin xã hội và hành động tập thể.
Xây dựng Trách
nhiệm giải trình Thể chế
Để thực thi các
nguyên tắc này, cần có một sự thay đổi cơ bản trong cách tiếp cận quy định:
1.
Từ Giải thích Kỹ thuật sang Biện minh Thể chế: Thay vì yêu cầu
các giải thích kỹ thuật không thể hiểu được về cách các mô hình hoạt động
("Tại sao tôi thấy bài đăng này?"), quy định nên yêu cầu Facebook và
Google phải biện minh cho các lựa chọn thiết kế cấp cao của họ ("Tại sao
News Feed lại tối ưu hóa cho chỉ số này? Các lựa chọn thay thế là gì?").
2.
Từ Quản trị Kỹ trị sang Quản trị có Sự tham gia được
trao quyền:
Thay vì dựa vào các chuyên gia hoặc sự tự điều chỉnh của công ty, cần thiết lập
các cơ chế dân chủ mới. Một Cơ quan Nền tảng AI (APA) mới có thể được
thành lập để giám sát các tiện ích dân chủ, sử dụng các công cụ như:
o Hội đồng Công dân: Để thảo luận và
thiết lập các nghĩa vụ cấp cao (ví dụ: định nghĩa "đa dạng").
o Tiểu Công chúng: Các nhóm nhỏ hơn
gồm các bên liên quan (chuyên gia, xã hội dân sự) để giám sát việc thiết kế các
hệ thống cụ thể.
o Ban Giám khảo Công
dân:
Để đưa ra các phán quyết về việc liệu các hệ thống có tuân thủ các nghĩa vụ của
chúng hay không.
Cách tiếp cận này
thừa nhận rằng sẽ luôn có những bất đồng về cách thiết kế không gian công cộng.
Mục tiêu không phải là tìm ra một giải pháp kỹ thuật duy nhất, đúng đắn, mà là
tạo ra các quy trình dân chủ mạnh mẽ để liên tục tranh luận, thử nghiệm và sửa
đổi các hệ thống định hình cuộc sống chung của chúng ta.
1. Cơ chế nào
giúp nền dân chủ quản lý hiệu quả quyền lực chính trị của học máy?
Cơ chế giúp nền dân chủ quản lý hiệu quả quyền lực chính trị
của học máy phải tập trung vào việc thể chế hóa các quy trình thử nghiệm, suy
ngẫm và sửa đổi liên tục, đồng thời đảm bảo các lựa chọn thiết kế và triển khai
học máy ưu tiên các giá trị dân chủ thay vì các mục tiêu kỹ trị trung lập một
cách hời hợt.
Bởi vì học máy mang tính chính trị—các lựa chọn về thiết kế
và sử dụng nó liên quan đến việc đánh đổi, ưu tiên một số lợi ích và giá trị
hơn những lợi ích và giá trị khác—việc theo đuổi công lý và dân chủ phụ thuộc
vào cách chúng ta thu hẹp những khoảng trống về kinh nghiệm, trách nhiệm và
ngôn ngữ xung quanh các công cụ dự đoán.
Dưới đây là các cơ chế chính được đề xuất để quản lý quyền
lực chính trị của học máy, dựa trên bối cảnh sử dụng:
1. Quản lý
chung (Phân phối Lợi ích và Gánh nặng Xã hội)
Đối với các hệ thống học máy được sử dụng trong các lĩnh vực
như phúc lợi trẻ em, tư pháp hình sự hoặc tuyển dụng (ví dụ: AFST, COMPAS), cơ
chế quản lý cần được thúc đẩy bởi lý tưởng bình đẳng chính trị. Lý tưởng
này mời gọi chúng ta đối mặt với sự cần thiết phải tranh luận về thời điểm và
lý do tại sao nên đối xử khác biệt với mọi người để giải quyết những bất lợi về
cấu trúc.
Các cơ chế quản lý cụ thể bao gồm:
- Chuyển từ Lệnh cấm sang Nghĩa vụ Tích cực: Cần chuyển đổi từ các lệnh cấm tiêu cực (ví dụ: luật
chống phân biệt đối xử chỉ tập trung vào việc tránh sử dụng các đặc điểm
được bảo vệ một cách hình thức) sang Nghĩa vụ Bình đẳng Tích cực (PEDs).
Các PED sẽ yêu cầu các tổ chức thực hiện các nỗ lực hợp lý để đảm bảo rằng
các quy trình ra quyết định của họ không làm trầm trọng thêm sự bất bình
đẳng xã hội và, trong một số bối cảnh, chủ động giảm bớt chúng.
- Thành lập Cơ quan Quản lý Bình đẳng: Các nghĩa vụ tích cực này nên được thực thi bởi các cơ
quan quản lý bình đẳng và quyền dân sự được trao quyền và có đủ nguồn lực,
thay vì chủ yếu bởi tòa án áp đặt các biện pháp khắc phục cá nhân sau sự
việc (ex post).
- Đạo luật Bình đẳng AI (AIEA): Thành lập một khuôn khổ luật pháp mới, chẳng hạn như Đạo
luật Bình đẳng AI, để thể chế hóa các nghĩa vụ này. AIEA sẽ khẳng định
bình đẳng chính trị là nguyên tắc hướng dẫn trong thiết kế và triển khai
công cụ dự đoán.
- Công bằng Cá nhân:
Nếu cần áp đặt các ràng buộc đối với các công cụ dự đoán, luật pháp nên
thể chế hóa cách tiếp cận công bằng cá nhân của Cynthia Dwork. Cách
tiếp cận này yêu cầu các thể chế xác định chính xác những ai được đối xử
tương tự và biện minh cho chỉ số khoảng cách của họ, cô lập các phán đoán
chính trị về sự đối xử bình đẳng thay vì tìm kiếm một công thức toán học
phổ quát về công bằng nhóm.
2. Quản lý
Facebook và Google (Cơ sở hạ tầng Kỹ thuật số)
Đối với Facebook và Google, vốn thực hiện quyền lực cơ sở hạ
tầng đặc biệt thông qua các hệ thống xếp hạng sử dụng học máy để định hình
không gian công cộng và hệ sinh thái thông tin công dân, quản lý cần được xem
xét dưới khung tiện ích dân chủ.
Các cơ chế quản lý nhằm đảm bảo rằng việc thực thi quyền lực
cơ sở hạ tầng này hỗ trợ sự phát triển của nền dân chủ bao gồm:
A. Nguyên
tắc Hướng dẫn
Việc thiết kế hệ thống học máy phải được định hướng bởi các
mục tiêu chung, bao gồm:
1.
Chống Tham
nhũng: Thiết kế các hệ thống ưu tiên lợi
ích công cộng hơn doanh thu quảng cáo.
2.
Đa dạng: Thúc đẩy sự đa dạng của tiếng nói và giá trị trong không
gian công cộng bằng cách khuyến khích các cuộc gặp gỡ ngẫu nhiên giữa các công
dân và ý tưởng khác biệt.
3.
Trải nghiệm
Chung: Hỗ trợ các trải nghiệm chung và phổ
biến rộng rãi thông tin công cộng để thúc đẩy mục đích chung giữa các công dân
đa dạng.
B. Cơ cấu Tổ
chức và Giám sát
- Bức tường lửa Cấu trúc (Structural Firewalls): Áp đặt các bức tường lửa cấu trúc để tách biệt các hệ
thống xếp hạng cơ sở hạ tầng (ví dụ: News Feed, Tìm kiếm) khỏi các hệ
thống phân phối quảng cáo. Điều này nhằm điều chỉnh động lực sản xuất, đảm
bảo các tiện ích dân chủ xem xét đầy đủ lợi ích công cộng khi thiết kế hệ
thống của họ.
- Thành lập Cơ quan Nền tảng AI (APA): Thành lập Cơ quan Nền tảng AI (APA), một cơ quan quản
lý chuyên trách, có nguồn lực tốt và có kỹ năng kỹ thuật, để giám sát việc
thiết kế và đánh giá các hệ thống học máy của Facebook và Google.
C. Quy trình
Trách nhiệm giải trình
- Biện minh Thể chế thay vì Giải thích Kỹ thuật: Thay vì yêu cầu giải thích kỹ thuật về logic bên trong
mô hình (thường là phức tạp và không làm rõ được các lựa chọn chính trị),
Facebook và Google nên được yêu cầu cung cấp biện minh thể chế có
nguyên tắc cho các lựa chọn thiết kế của họ. Biện minh này phải làm rõ các
chỉ số hàng đầu mà họ tối ưu hóa, các khái niệm họ ước tính, các hướng dẫn
gắn nhãn và các số liệu thống kê tóm tắt về dữ liệu đào tạo.
- Ra quyết định có sự Tham gia (Thử nghiệm Dân chủ): APA nên cấu trúc các cơ chế quản trị có sự tham gia
được trao quyền để thúc đẩy thử nghiệm và học hỏi tập thể liên tục. Các cơ
chế này bao gồm:
- Hội đồng Công dân (Citizen assemblies): Bao gồm các đại diện được bầu cử và các chuyên gia để
phát triển các nghĩa vụ rộng lớn áp đặt lên các công ty.
- Tiểu Công chúng (Mini-publics): Triệu tập các cơ quan công quyền và các nhóm xã hội
dân sự (ví dụ: FTC, FCC, ACLU) để kiểm tra các bản cập nhật lớn và nguyên
tắc thiết kế của các hệ thống học máy cụ thể.
- Ban giám khảo Công dân (Citizen juries): Được sử dụng để đưa ra các quyết định gây tranh cãi,
có tính rủi ro cao về các trường hợp cá nhân hoặc các quyết định nhị
phân, xây dựng tính hợp pháp cho các phán quyết và rèn luyện năng lực
chính trị của công dân.
Tóm lại, việc quản lý quyền lực chính trị của học máy đòi
hỏi phải thay đổi cấu trúc thể chế để khuyến khích các tổ chức thiết kế
các quy trình ra quyết định nhằm giải quyết bất bình đẳng cấu trúc
(thông qua PEDs và AIEA) và hỗ trợ tự quản tập thể (thông qua khung tiện
ích dân chủ, APA và quản trị có sự tham gia).
2. Làm thế nào
các mô hình học máy tái tạo và làm trầm trọng thêm bất bình đẳng xã hội hiện
có?
Các mô hình học máy tái tạo và làm trầm trọng thêm bất bình
đẳng xã hội hiện có chủ yếu là do bản chất chính trị của chúng, nguồn dữ liệu
được sử dụng để huấn luyện và cơ chế hoạt động của chúng tạo ra các vòng lặp
phản hồi tự củng cố trong thế giới thực.
Dưới đây là các cơ chế chi tiết giải thích cách các mô hình
học máy củng cố sự bất công:
1. Phản ánh
và Mã hóa Thiên kiến Lịch sử và Cấu trúc
Các mô hình học máy được xây dựng dựa trên dữ liệu do con
người thu thập, vốn phản ánh các cấu trúc, cơ hội và bất lợi của một thế giới
vốn đã tồn tại nhiều bất công.
- Dữ liệu thiên vị và không đại diện: Các hệ thống dữ liệu thường có sẵn đã mang tính thiên
kiến, ví dụ, "lấy mẫu quá mức những người nghèo". Dữ liệu có thể
là một phần, chẳng hạn như Công cụ sàng lọc gia đình Allegheny (AFST) được
huấn luyện trên dữ liệu đại diện cho các hộ gia đình có thu nhập thấp,
người Mỹ gốc Phi một cách không cân xứng và loại trừ dữ liệu được tạo
ra bởi các gia đình giàu có, người da trắng (ví dụ: bảo hiểm y tế tư
nhân).
- Phản ánh thế giới bất công: Các hệ thống học máy phản ánh sự bất bình đẳng lịch
sử. Nếu các quyết định trong quá khứ được sử dụng làm ví dụ cho việc đào
tạo mô hình đã bị ảnh hưởng bởi một số hình thức thiên kiến, thì việc khai
thác dữ liệu nhất thiết sẽ suy ra các quy tắc thể hiện cùng một thiên kiến
đó. Vấn đề không phải là dữ liệu không chính xác, mà là dữ liệu phản
ánh chính xác một thế giới bất công.
- Danh mục bất lợi:
Dữ liệu có thể nắm bắt các mô hình bất bình đẳng, khiến cơ hội trong cuộc
sống của chúng ta bị định hình bởi cấu trúc của thế giới xã hội. Ví dụ,
chủng tộc và giới tính điều kiện cơ hội và cách chúng ta hành xử; do đó,
các mẫu hành vi (như nhấp vào quảng cáo) tương quan với chủng tộc và giới
tính.
2. Sự kém
hiệu quả của Sự Mù quáng về Đặc điểm (Mã hóa Thừa)
Ngay cả khi các nhà thiết kế cố gắng loại bỏ các đặc điểm
được bảo vệ (như chủng tộc hoặc giới tính) khỏi mô hình, học máy vẫn có thể tái
tạo sự bất bình đẳng xã hội:
- Mã hóa Thừa (Redundant Encoding): Các tính năng mà mô hình học máy sử dụng để phân loại
người liên quan đến một biến mục tiêu thường cũng phân loại các cá nhân
theo tư cách thành viên trong một tầng lớp cụ thể. Điều này xảy ra bởi
vì chủng tộc hoặc giới tính của một cá nhân tương quan với tất cả các loại
tính năng có liên quan thống kê đến dự đoán (như thu nhập hoặc mã zip).
- Phân biệt đối xử vẫn tồn tại: Vì lý do này, các mô hình học máy tái tạo các bất bình
đẳng xã hội ngay cả khi các biến được bảo vệ bị loại bỏ khỏi dữ
liệu huấn luyện và mô hình. Ví dụ, việc loại bỏ chủng tộc và các đại diện
gần giống khỏi hệ thống phân phối quảng cáo của Facebook không tạo ra sự
khác biệt nào đối với độ chính xác của hệ thống, nhưng cũng không tạo ra
sự khác biệt nào đối với tác động của hệ thống đối với việc theo đuổi sự
bình đẳng giữa các chủng tộc.
- Sự bất bình đẳng trở nên "tự nhiên": Khi các tiêu chí hợp pháp (ví dụ: các cuộc gọi giới
thiệu trong phúc lợi trẻ em hoặc thời gian làm việc trong tuyển dụng) được
sử dụng nhưng lại được phân bổ không đồng đều giữa các nhóm có lợi thế và
bất lợi, các mô hình học máy khuếch đại và làm trầm trọng thêm sự bất bình
đẳng về quyền lực, khiến những bất bình đẳng này dường như không thể
tránh khỏi, thậm chí là tự nhiên, thay vì là kết quả của các quá trình
xã hội mà chúng ta có thể thay đổi.
3. Làm trầm
trọng thêm thông qua Vòng lặp Phản hồi (Dự đoán có tính Hiệu suất)
Các mô hình học máy không chỉ dự đoán mà còn có khả năng
định hình tương lai mà chúng dự đoán, đặc biệt khi các hành động được thực hiện
dựa trên dự đoán của chúng. Đây được gọi là "dự đoán có tính hiệu
suất" (performative prediction).
- Vòng lặp tự củng cố:
Hành động dựa trên các dự đoán phản ánh các mô hình bất bình đẳng có thể
tạo ra các vòng lặp bất công tự củng cố.
- Ví dụ về Phúc lợi Trẻ em (AFST): Việc huấn luyện AFST trên dữ liệu thiên vị khiến nó
gắn cờ các gia đình Da đen, nghèo hơn là có nguy cơ cao và khiến họ bị
điều tra thường xuyên hơn. Kết quả là, trẻ em từ các gia đình này bị đưa
vào chăm sóc nuôi dưỡng với tỷ lệ không cân xứng, điều này càng làm tăng
sự chênh lệch chủng tộc trong dữ liệu rủi ro được đo lường, sau đó được
đưa trở lại AFST, bắt đầu lại vòng lặp. AFST khiến các gia đình nghèo
hơn, người Mỹ gốc Phi bị giám sát không mong muốn và thường không cần
thiết một cách không cân xứng.
- Ví dụ về Quảng cáo (p(click)): Nếu mô hình p(click) của Facebook dự đoán rằng phụ nữ
có xu hướng nhấp vào quảng cáo việc làm có thu nhập trung bình thấp hơn,
nó sẽ hiển thị những quảng cáo đó cho họ nhiều hơn. Điều này khiến họ có
xu hướng nhấp vào các quảng cáo đó, cung cấp thêm dữ liệu xác nhận sự
chênh lệch giới tính này vào mô hình, tiếp tục củng cố sự bất bình đẳng
về thu nhập trong thị trường lao động.
- Ví dụ về Tư pháp Hình sự (COMPAS): Người Mỹ da đen có nhiều khả năng bị chặn, bắt giữ,
buộc tội và kết án nặng hơn. Vì COMPAS dự đoán tái phạm (một kết quả bị
phân phối không đồng đều do sự bất công có hệ thống), việc sử dụng nó có
thể tạo ra các vòng lặp tự củng cố, khiến sự chênh lệch chủng tộc trong
tỷ lệ vỡ nợ (hoặc tái phạm) ngày càng tăng.
Tóm lại, học máy vừa khuếch đại vừa che khuất quyền
lực của các tổ chức sử dụng nó. Nó tăng quy mô và tốc độ ra quyết định, làm cho
các lựa chọn thiết kế cố định một định kiến nhất định trên quy mô khổng lồ.
Điều này khiến việc hợp lý hóa "sự bất bình đẳng cấu trúc liên tục"
trở nên dễ dàng hơn, bằng cách chiếu những bất công của quá khứ vào tương lai.
3. Việc thiết
kế và tối ưu hóa các hệ thống xếp hạng thuật toán ảnh hưởng đến không gian công
cộng ra sao?
Việc thiết kế và tối ưu hóa các hệ thống xếp hạng thuật toán,
đặc biệt là News Feed của Facebook và tìm kiếm của Google, có ảnh
hưởng sâu sắc và mang tính chính trị đối với không gian công cộng. Những hệ
thống này thực hiện một loại quyền lực cơ sở hạ tầng vì chúng định hình
cách công dân tương tác với nhau, truy cập thông tin và thực hiện quyền tự quản
tập thể.
1. Vai trò
là Cơ sở hạ tầng Công cộng Kỹ thuật số
Các hệ thống xếp hạng này là giải pháp cho "vấn đề về
sự phong phú" thông tin bằng cách sắp xếp một lượng lớn nội dung (đối với
News Feed) hoặc trang web (đối với Google Search). Quyền lực của Facebook và
Google bắt nguồn từ cách họ sử dụng học máy để giải quyết vấn đề dư thừa này.
- Định hình Thông tin và Trải nghiệm: Những hệ thống này xác định những gì hàng tỷ người
trên toàn cầu đọc, xem và nghe. Chúng sắp xếp, lọc và xếp hạng một lượng
lớn nội dung và trang web, định hình những gì chúng ta thấy, đọc, học và
thậm chí là cách chúng ta cảm nhận.
- Cấu trúc Không gian Công dân: Các hệ thống này đã trở thành một phần của cơ sở hạ
tầng của lĩnh vực công cộng kỹ thuật số. Chúng định hình cách công dân gặp
gỡ và tương tác với nhau, cách họ thảo luận về những khát vọng chung và
hình thành những tham vọng được chia sẻ.
- Quyền lực Nút cổ chai: Vì các hệ thống này áp đặt một sự khan hiếm nhân
tạo đối với sự phong phú của thông tin, sự kiểm soát đơn phương của
các tập đoàn đối với chúng tạo ra một loại quyền lực nút cổ chai, đe dọa
tự do chính trị và khả năng tự quản tập thể.
2. Tác động
Chính trị thông qua Lựa chọn Thiết kế
Việc thiết kế và tối ưu hóa các hệ thống xếp hạng không phải
là quá trình kỹ thuật trung lập mà là những lựa chọn mang tính chính trị
ưu tiên một số lợi ích và giá trị hơn những lợi ích và giá trị khác.
- Chỉ số Tối ưu hóa:
Việc xác định các "chỉ số hàng đầu" (key metrics) mà hệ thống
tìm cách tối ưu hóa là lựa chọn thiết kế quan trọng nhất.
- Facebook:
Facebook đã thay đổi News Feed để tối ưu hóa cho Tương tác Xã hội Có ý
nghĩa (MSI). Lựa chọn này đã ưu tiên yếu tố xã hội hơn yếu tố công
khai và sự tương tác hơn chất lượng. Điều này định hướng lại News Feed
khỏi các cuộc thảo luận về giá trị chung (như các bài báo chất lượng cao)
và hướng tới các bài đăng từ gia đình và bạn bè, bất kể tầm quan trọng
công cộng.
- Google:
Thiết kế của Google ngụ ý rằng các hệ thống kiểm soát quyền truy cập
thông tin nên ưu tiên các nguồn được cộng đồng đánh giá là có thẩm
quyền.
- Biện minh Thể chế:
Quyền lực của các công ty này bị che giấu đằng sau các chi tiết kỹ thuật
và các mục tiêu bề ngoài trung lập. Để quản lý chúng, các công ty nên được
yêu cầu cung cấp biện minh thể chế (institutional justification)
cho các lựa chọn của họ về các chỉ số hàng đầu, các khái niệm được ước
tính (như tính độc hại hoặc chất lượng) và các hướng dẫn gắn nhãn dữ liệu
đào tạo.
3. Khuếch
đại các Bệnh lý Xã hội (Dự đoán Hiệu suất)
Các hệ thống xếp hạng là một trường hợp dự đoán hiệu suất
siêu cấp (hyper performative prediction). Chúng không chỉ dự đoán những gì
công dân muốn mà còn định hình những gì họ muốn.
- Tạo Vòng lặp Phản hồi: Mọi người tương tác với nội dung được Facebook/Google
dự đoán họ sẽ tương tác vì nội dung đó được xếp hạng cao hơn. Xếp hạng này
định hình hành vi theo cách làm cho dự đoán trở thành sự thật.
- Thao túng và Gây nghiện: Do động cơ thúc đẩy lợi nhuận quảng cáo, các hệ thống
được thiết kế để giữ chân người dùng càng lâu càng tốt. Điều này khuyến
khích chúng lan truyền những điều sai sự thật, tạo ra không khí ngờ vực và
lưu hành các ý tưởng gây ra những cảm xúc gây nghiện như phẫn nộ. Ví dụ, sự
thay đổi MSI của Facebook đã làm tăng "sự chia rẽ" và "sự
phẫn nộ" bằng cách thúc đẩy các bài đăng gây kích động.
- Bong bóng Lọc (Filter Bubbles): Các dự đoán cá nhân hóa về mức độ liên quan sắp xếp
mọi người vào các nhóm, gây ra "bong bóng lọc" hoặc "phòng
vọng," nơi người dùng chỉ được tiếp xúc với cùng loại nội dung, làm
tăng sự phân cực và chia rẽ xã hội.
- Che khuất Quyền lực:
Học máy làm tăng quy mô và tốc độ ra quyết định, nhưng nó cũng che khuất
tính chính trị của các lựa chọn thiết kế. Điều này khiến sự bất bình đẳng
và các giá trị được xây dựng trong mô hình trở nên "tự nhiên"
hoặc không thể tránh khỏi.
Tóm lại, việc thiết kế các hệ thống xếp hạng thuật toán định
hình không gian công cộng bằng cách kiểm soát quyền truy cập thông tin và các
điều kiện để công dân giao tiếp, định hướng hành vi của họ để tối ưu hóa lợi
nhuận, và do đó, vô tình hoặc cố ý, làm xói mòn các điều kiện thông tin và xã
hội cần thiết cho sự tự quản tập thể.
4. Đánh
giá những hạn chế của luật chống phân biệt đối xử truyền thống, đặc biệt là các
học thuyết về "đối xử khác biệt" và "tác động khác biệt",
khi áp dụng cho các hệ thống học máy. Thảo luận về cách các nguyên tắc
"chống phân loại" và "chống áp bức" mâu thuẫn với nhau và
phân tích đề xuất về "Nghĩa vụ Bình đẳng Tích cực" (PEDs) như một
giải pháp thay thế.
Nền dân chủ phải đối mặt với một thách thức lớn khi áp dụng
luật chống phân biệt đối xử truyền thống vào các hệ thống học máy (ML). Luật
phân biệt đối xử, theo cách diễn giải và áp dụng hiện tại, thường không đảm
bảo rằng các mô hình học máy được xây dựng để thúc đẩy bình đẳng, và thậm
chí có thể ngăn chặn các loại lựa chọn thiết kế cần thiết để giải quyết
các mô hình bất bình đẳng.
Dưới đây là đánh giá chi tiết về những hạn chế của luật
chống phân biệt đối xử truyền thống (chủ yếu dựa trên luật pháp Hoa Kỳ, nhưng
có so sánh với luật Vương quốc Anh) và đề xuất thay thế là Nghĩa vụ Bình đẳng
Tích cực (PEDs).
1. Hạn chế
của Các Học thuyết Phân biệt đối xử Truyền thống
Luật chống phân biệt đối xử truyền thống xoay quanh hai học thuyết
chính: "Đối xử khác biệt" (Disparate Treatment) và "Tác
động khác biệt" (Disparate Impact).
A. Hạn chế
của Học thuyết "Đối xử Khác biệt" (Chống Phân loại)
Học thuyết "Đối xử khác biệt" (ở Vương quốc Anh là
"phân biệt đối xử trực tiếp") xảy ra khi một chính sách hoặc thủ tục
sử dụng tư cách thành viên trong một tầng lớp được bảo vệ (chẳng hạn như
chủng tộc hoặc giới tính) để đưa ra quyết định. Khi áp dụng cho học máy, điều
này thường được hiểu là yêu cầu "chống phân loại"—nghĩa là mô
hình không được công khai xem xét các thuộc tính được bảo vệ (A).
Những hạn chế chính:
1.
Mã hóa Dư
thừa (Redundant Encoding): Việc loại
bỏ các đặc điểm được bảo vệ khỏi mô hình (chống phân loại) thường không loại
bỏ thông tin về tư cách thành viên nhóm được bảo vệ. Các tính năng khác
(như thu nhập hoặc mã zip) gần như luôn chứa thông tin tương quan với các thuộc
tính được bảo vệ vì các mô hình bất bình đẳng xã hội đảm bảo rằng chủng tộc
hoặc giới tính tương quan với mọi loại tính năng khác có liên quan thống kê đến
dự đoán. Do đó, các mô hình học máy tái tạo các bất bình đẳng xã hội ngay cả
khi các biến được bảo vệ bị loại bỏ.
2.
Không hiệu
quả và Phản tác dụng: Phương pháp chống phân loại là
"sai lầm". Việc loại bỏ các thuộc tính được bảo vệ có thể loại bỏ
thông tin liên quan đến dự đoán chính xác, có thể gây hại cho các nhóm mà nó
được cho là để thúc đẩy phúc lợi. Ví dụ, loại trừ giới tính khỏi mô hình dự
đoán nguy cơ bạo lực có thể phóng đại nguy cơ của phụ nữ vì phụ nữ ít có khả
năng phạm tội bạo lực hơn.
3.
Tập trung
vào Hình thức thay vì Tác động:
Chống phân loại tập trung vào việc tuân thủ quy tắc hình thức (không sử dụng A)
hơn là tác động thực tế của hệ thống đối với sự bình đẳng. Phương pháp này tạo
ra "một mệnh lệnh thô thiển, phổ quát về sự mù quáng", cho
phép các tổ chức tránh các câu hỏi khó về việc liệu hệ thống của họ có làm trầm
trọng thêm bất bình đẳng xã hội hay không.
4.
Dễ dàng được
Miễn trừ: Các tổ chức như Facebook có thể dễ
dàng loại bỏ các đặc điểm được bảo vệ khỏi mô hình phân phối quảng cáo của họ
để được miễn trừ khỏi các cáo buộc "đối xử khác biệt," ngay cả khi
hành động này không tạo ra sự khác biệt nào đối với việc theo đuổi sự bình đẳng
chủng tộc và giới tính.
B. Hạn chế
của Học thuyết "Tác động Khác biệt"
Học thuyết "Tác động khác biệt" (ở Vương quốc Anh
là "phân biệt đối xử gián tiếp") cấm các hệ thống ra quyết định có vẻ
trung lập nhưng có tác động bất lợi không chính đáng đối với các thành
viên của các nhóm được bảo vệ. Quy trình kiểm tra tác động khác biệt thường có
ba giai đoạn:
1.
Thiết lập tác động khác biệt sơ bộ.
2.
Bị đơn biện minh cho chính sách dựa
trên lợi ích kinh doanh hợp pháp ("Sự cần thiết trong kinh doanh").
3.
Nguyên đơn chứng minh có một phương
tiện thay thế hợp lý, ít phân biệt đối xử hơn để đạt được cùng mục đích.
Những hạn chế chính đối với Học máy:
1.
Giai đoạn 2
(Biện minh Kinh doanh) quá dễ dàng:
Học máy được các công ty sử dụng vì nó chính xác hơn nhiều so với các
lựa chọn thay thế. Do đó, theo sự giải thích rộng rãi về biện minh kinh doanh,
tác động khác biệt do mô hình tạo ra vừa rõ ràng hơn vừa dễ bảo vệ hơn.
Các tòa án thường miễn cưỡng tranh chấp lý do biện minh của doanh nghiệp về các
biến mục tiêu mà mô hình dự đoán.
2.
Giai đoạn 3
(Lựa chọn Thay thế Hợp lý) quá khó khăn:
Nguyên đơn (thường là công chúng hoặc cơ quan quản lý) thiếu chuyên môn kỹ
thuật và quyền truy cập vào dữ liệu, mô hình và tính năng của bị đơn để xác
định liệu có tồn tại một mô hình học máy thay thế nào đạt được cùng lợi ích hợp
pháp nhưng tạo ra ít tác động khác biệt hơn (ít phân biệt đối xử hơn) hay
không. Học máy khiến việc chứng minh một quy trình ra quyết định thay thế cải
thiện Pareto hiếm khi có thể được chứng minh.
3.
Thiếu cơ sở
để Đánh giá Đánh đổi: Luật tác động khác biệt không
cung cấp cơ sở để các thẩm phán lý giải về những gánh nặng hợp lý để áp đặt
lên các tổ chức. Vấn đề nằm ở mục đích của luật phân biệt đối xử: nếu nó không
làm rõ mục đích là gì, không thể đánh giá liệu một lựa chọn thay thế (ví dụ: áp
đặt bình đẳng dân số) có mang lại lợi ích cho các nhóm yếu thế hay không, vì
điều này phụ thuộc vào các sự kiện thực tế về sự không chắc chắn và sai số đo
lường trong thế giới thực.
4.
Luật pháp
đang trở thành công cụ củng cố bất công:
Luật phân biệt đối xử có nguy cơ trở thành một công cụ để củng cố sự bất công
vì nó cho phép các hệ thống học máy củng cố các mô hình bất bình đẳng
ngay cả khi không có ý định phân biệt đối xử rõ ràng.
2. Mâu thuẫn
giữa Nguyên tắc "Chống Phân loại" và "Chống Áp bức"
Luật phân biệt đối xử truyền thống bị chi phối bởi một cuộc
đấu tranh giữa hai nguyên tắc đối lập, điều mà học máy làm cho trở nên rõ ràng
và gay gắt hơn:
A. Nguyên
tắc Chống Phân loại (Anti-Classification)
Nguyên tắc này thể hiện cách tiếp cận hình thức đối với
đối xử bình đẳng. Nó cho rằng luật phân biệt đối xử nhằm mục đích cấm sử
dụng các đặc điểm được bảo vệ trong việc ra quyết định bởi vì chúng không
liên quan về mặt đạo đức đến việc phân bổ lợi ích và gánh nặng. Đây là quan
điểm "đối xử như mù quáng".
B. Nguyên
tắc Chống Áp bức (Anti-Subordination)
Nguyên tắc này mang tính thực chất và tập trung vào việc
loại bỏ sự thực thi quyền lực có hệ thống của một nhóm đối với nhóm khác.
Nó nhằm mục đích đối đầu và loại bỏ các mối quan hệ lệ thuộc và thống trị giữa
các nhóm xã hội. Đây là quan điểm "đối xử như nhận thức".
C. Sự Mâu
thuẫn
Trong bối cảnh học máy và bất bình đẳng cấu trúc, hai nguyên
tắc này mâu thuẫn hoàn toàn (Trường hợp thứ ba):
- Chống phân loại cấm sử dụng các danh mục được bảo vệ (như chủng tộc), ngay cả khi làm như vậy sẽ thúc đẩy
bình đẳng.
- Chống áp bức yêu cầu sử dụng các danh mục được bảo vệ (như hành động khẳng định) khi cần thiết để phá bỏ các
cấu trúc thống trị và giảm thiểu sự chênh lệch giữa các nhóm có lợi thế và
yếu thế. Việc thu hẹp sự chênh lệch kết quả thường đòi hỏi việc sử dụng
rõ ràng các đặc điểm được bảo vệ.
- Học máy làm rõ mâu thuẫn: Mô hình học máy có thể được coi là không phân biệt đối
xử theo quan điểm chống phân loại (vì nó loại trừ chủng tộc) nhưng lại làm
trầm trọng thêm sự áp bức theo quan điểm chống áp bức (vì nó tái tạo
bất bình đẳng). Nếu Facebook muốn cố ý sử dụng chủng tộc để thúc đẩy bình
đẳng chủng tộc (chống áp bức), luật pháp có thể ngăn cản họ làm như vậy vì
vi phạm chống phân loại.
3. Đề xuất
Thay thế: Nghĩa vụ Bình đẳng Tích cực (PEDs)
Để vượt qua những hạn chế và mâu thuẫn này, cần có một cách
tiếp cận mới được hướng dẫn bởi lý tưởng Bình đẳng Chính trị. Lý tưởng
này tập trung vào việc đảm bảo rằng công dân có thể liên hệ và hoạt động với tư
cách là những người bình đẳng về chính trị, loại bỏ sự thống trị và hỗ trợ tính
đối ứng.
Đề xuất "Nghĩa vụ Bình đẳng Tích cực" (Positive
Equality Duties - PEDs):
1.
Chuyển đổi
từ Lệnh cấm sang Nghĩa vụ Tích cực:
PEDs là sự chuyển đổi từ các lệnh cấm phân biệt đối xử tiêu cực sang các nghĩa
vụ tích cực. Các lệnh cấm tiêu cực có thể không ngăn cản các thể chế vô
tình sử dụng học máy để làm trầm trọng thêm bất bình đẳng xã hội cấu trúc.
2.
Cho phép Sử
dụng Đặc điểm được Bảo vệ: PEDs sẽ cho
phép sử dụng các đặc điểm được bảo vệ trong một tập hợp các ngữ cảnh quyết
định được xác định, với điều kiện có cơ sở bằng chứng vững chắc rằng việc làm
như vậy thúc đẩy bình đẳng giữa các nhóm.
3.
Công nhận Sự
đối xử khác biệt: PEDs không phải là ngoại lệ đối với
nguyên tắc đối xử bình đẳng mà là sự thừa nhận rằng đối xử bình đẳng đòi hỏi
sự đối xử khác biệt với những người có hoàn cảnh khác biệt. Bình đẳng chính
trị mời gọi chúng ta chấp nhận sự cần thiết phải tranh luận về thời điểm và lý
do tại sao các bất lợi biện minh cho việc đối xử khác biệt để thúc đẩy bình
đẳng.
4.
Yêu cầu Nỗ
lực Hợp lý: Các tổ chức sẽ phải chứng minh
rằng họ đã thực hiện các biện pháp hợp lý để khám phá cách tốt nhất để
thúc đẩy bình đẳng. Điều này bao gồm việc so sánh các cách thay thế để thiết kế
các quy trình ra quyết định (bao gồm cả việc sử dụng các đặc điểm được bảo vệ)
và thực hiện các bước hợp lý để giải quyết sự chênh lệch được quan sát.
5.
Miễn trừ
khỏi Chống Phân loại: Khi các đặc điểm được bảo vệ được
sử dụng như một phần của nỗ lực hợp lý để thực hiện PEDs, và có cơ sở bằng
chứng vững chắc rằng việc đó sẽ giảm bất bình đẳng, thì việc sử dụng các đặc
điểm đó sẽ không cấu thành vi phạm đối xử khác biệt.
6.
Thực thi
hành chính: Các PED này nên được thực thi bởi các
cơ quan quản lý bình đẳng và quyền dân sự được trao quyền và có đủ nguồn lực,
thay vì chủ yếu bởi tòa án áp đặt các biện pháp khắc phục cá nhân ex post.
Tóm lại, PEDs giải quyết mâu thuẫn giữa chống phân loại và
chống áp bức bằng cách ưu tiên mục tiêu chống áp bức—đó là loại bỏ sự
thống trị và bất bình đẳng cấu trúc—và loại bỏ sự ràng buộc của chống phân
loại để cho phép các tổ chức sử dụng học máy như một công cụ để thúc đẩy
bình đẳng một cách tích cực và có chủ đích.
5. Xây
dựng một lập luận ủng hộ hoặc chống lại việc điều chỉnh Facebook và Google như
những "tiện ích dân chủ". Giải thích rõ khái niệm này, đối chiếu nó
với tiện ích công cộng truyền thống, và thảo luận về ba nguyên tắc (chống tham
nhũng, đa dạng, trải nghiệm chung) có thể được sử dụng để hướng dẫn việc thiết
kế lại các hệ thống học máy của họ nhằm hỗ trợ sự phát triển của nền dân chủ.
Dựa trên các nguồn tài liệu, có thể xây dựng lập luận ủng
hộ việc điều chỉnh Facebook và Google như những "tiện ích dân
chủ" (Democratic Utilities) nhằm đối phó với loại quyền lực cơ sở hạ tầng
đặc biệt mà họ thực hiện thông qua việc thiết kế các hệ thống học máy.
I. Khái niệm
Tiện ích Dân chủ
Tiện ích Dân chủ
là một loại hình tập đoàn mới được đề xuất, có quyền lực cơ sở hạ tầng
định hình các điều kiện của tự quản tập thể (collective
self-governance).
Mục đích thúc đẩy việc điều tiết các tiện ích dân chủ là
nhằm bảo vệ sự phát triển của nền dân chủ.
Facebook và Google được coi là tiện ích dân chủ bởi vì:
1.
Họ kiểm soát
cơ sở hạ tầng quan trọng: Các hệ
thống xếp hạng của họ (News Feed và tìm kiếm) đã trở thành một phần của cơ sở
hạ tầng của không gian công cộng kỹ thuật số, một công cụ thiết yếu để công dân
tiếp cận thông tin, tổ chức và đưa ra các quyết định tập thể.
2.
Họ thực hiện
Quyền lực Nút cổ chai: Sự kiểm
soát đơn phương đối với các hệ thống xếp hạng này tạo ra một loại quyền lực nút
cổ chai, đe dọa tự do và khả năng tự quản của công dân.
3.
Họ định hình
Ý muốn và Hành vi: Quyền lực cơ sở hạ tầng của họ
không chỉ cho phép mọi người làm những gì họ muốn mà còn định hình những gì
mọi người muốn làm, hướng sự chú ý và định hình khả năng của công dân để
thực hiện quyền tự quản tập thể.
II. Đối
chiếu với Tiện ích Công cộng Truyền thống
Quan niệm về tiện ích dân chủ dựa trên Quan niệm Chính
trị về tiện ích công cộng thời kỳ Cấp Tiến, khác biệt với Quan niệm Kinh tế
hẹp hơn.
|
Đặc điểm |
Tiện
ích Công cộng Truyền thống (Quan niệm Kinh tế) |
Tiện
ích Dân chủ (Quan niệm Chính trị/Học máy) |
|
Bản chất |
Tập
đoàn độc quyền tự nhiên (ví dụ: đường sắt, điện, điện thoại) kiểm soát hàng
hóa vật lý. |
Tập
đoàn thực thi quyền lực cơ sở hạ tầng thông qua việc thiết kế hệ thống học
máy. |
|
Quyền lực Nút cổ chai |
Bắt
nguồn từ sự kiểm soát hàng hóa công cộng khan hiếm. |
Bắt
nguồn từ thiết kế các hệ thống xếp hạng sử dụng dự đoán để hướng sự chú ý của
con người và áp đặt khan hiếm nhân tạo lên thông tin dồi dào. |
|
Mục tiêu Điều tiết |
Tập
trung vào vấn đề kinh tế như giá cả, chống độc quyền và đảm bảo tiếp
cận không phân biệt đối xử. |
Tập
trung vào vấn đề chính trị như bảo vệ tự do chính trị và khả
năng tự quản tập thể. |
|
Quy định Phù hợp |
Các
biện pháp cứng nhắc, như phê duyệt trước kế hoạch và quản lý vi mô (thường
không hiệu quả trong môi trường công nghệ thay đổi nhanh chóng). |
Cần
sự đổi mới quy định và quản trị dân chủ thông qua các cơ chế
tham gia được trao quyền, tập trung vào tính lặp lại và thử nghiệm. |
III. Lập luận Ủng hộ Tiện ích Dân chủ
Lập luận ủng hộ việc điều chỉnh Facebook và Google như tiện
ích dân chủ là cần thiết để đối phó với bản chất chính trị và quyền lực cơ
sở hạ tầng của các hệ thống học máy của họ.
- Tính chính trị của Học máy: Các lựa chọn thiết kế hệ thống xếp hạng của Facebook
và Google không trung lập mà ưu tiên một số lợi ích và giá trị hơn những
lợi ích và giá trị khác (ví dụ: tối ưu hóa cho tương tác thay vì chất
lượng thông tin công khai).
- Thất bại của Quy định Hiện có: Các mục tiêu bảo vệ cạnh tranh và quyền riêng tư
(thường là trọng tâm của các đề xuất quy định hiện tại) là quan trọng công
cụ, nhưng không phải là nội tại, và chúng không đủ để đảm bảo rằng các hệ
thống của Facebook và Google hỗ trợ sự phát triển của nền dân chủ. Việc
tập trung vào cạnh tranh kinh tế có thể chưa đủ.
- Cấu trúc lại Trách nhiệm giải trình: Khung tiện ích dân chủ yêu cầu thay đổi cấu trúc quản
trị để buộc các công ty phải biện minh thể chế cho các lựa chọn
thiết kế của họ, thay vì chỉ cung cấp các giải thích kỹ thuật mơ hồ.
IV. Ba
Nguyên tắc Hướng dẫn Thiết kế Lại Hệ thống Học máy
Các nguyên tắc sau đây được đề xuất để hướng dẫn việc thiết
kế và đánh giá các hệ thống học máy của tiện ích dân chủ, đảm bảo chúng hỗ trợ
sự phát triển của nền dân chủ:
1. Chống
Tham nhũng (Anti-Corruption)
- Khái niệm:
Nguyên tắc này yêu cầu Facebook và Google phải thiết kế các hệ thống ưu
tiên lợi ích công cộng hơn doanh thu quảng cáo.
- Mục đích:
Đáp lại lời phê bình rằng nền kinh tế chính trị của quảng cáo kỹ thuật số
khuyến khích các công ty xây dựng các hệ thống thu hút và giữ chân sự chú
ý bằng cách làm hỏng không gian công cộng (ví dụ: lan truyền thông tin sai
lệch hoặc nội dung gây nghiện).
- Cơ chế Áp dụng:
Áp đặt bức tường lửa cấu trúc (structural firewalls) để tách biệt
các hệ thống xếp hạng cơ sở hạ tầng (News Feed, Tìm kiếm) khỏi các hệ
thống phân phối quảng cáo. Sự tách biệt này nhằm điều chỉnh động lực sản
xuất, đảm bảo các tiện ích dân chủ xem xét đầy đủ lợi ích công cộng.
2. Đa dạng
(Diversity)
- Khái niệm:
Nguyên tắc này yêu cầu các hệ thống phải thúc đẩy sự đa dạng của tiếng
nói và giá trị trong không gian công cộng bằng cách khuyến khích các
cuộc gặp gỡ ngẫu nhiên giữa các công dân và ý tưởng khác biệt.
- Mục đích:
Chống lại xu hướng cá nhân hóa và tạo ra "bong bóng lọc" hoặc
"phòng vọng" do các hệ thống xếp hạng dự đoán hành vi gây ra.
- Cơ chế Áp dụng:
Yêu cầu các công ty thiết kế lại hệ thống xếp hạng để chủ động thúc đẩy
các nguồn ý tưởng và thông tin đa dạng. Ví dụ, họ có thể xây dựng các mô
hình dự đoán nội dung mà người dùng không muốn xem (thay vì nội
dung họ muốn xem) và thỉnh thoảng hiển thị nội dung đó (tạo ra "nút
tình cờ"). Nó cũng có thể được hình dung lại từ Học thuyết Công bằng
(Fairness Doctrine) trước đây áp dụng cho phát sóng.
3. Trải
nghiệm Chung (Shared Experience)
- Khái niệm:
Nguyên tắc này yêu cầu các hệ thống phải tạo ra trải nghiệm chung
và phổ biến rộng rãi thông tin công cộng để thúc đẩy mục đích chung
giữa các công dân đa dạng.
- Mục đích:
Đảm bảo rằng công dân có một nền tảng thông tin chung về các sự kiện hoặc
chủ đề quan trọng, điều cần thiết để hỗ trợ lòng tin xã hội, các tương tác
xã hội và hành động tập thể.
- Cơ chế Áp dụng:
Xây dựng các hệ thống xếp hạng để đảm bảo phân phối rộng rãi thông
tin về các sự kiện và khoảnh khắc quan trọng của công chúng, hiển thị nội
dung đó ở vị trí cao hơn trong News Feed hoặc kết quả tìm kiếm của mọi
người.
Tóm lại, việc điều chỉnh Facebook và Google như các tiện ích
dân chủ là một lập luận chính trị nhằm tái cấu trúc quyền lực của họ thông qua
các nghĩa vụ và cơ chế quản trị mới, đảm bảo rằng việc thiết kế các hệ thống
học máy của họ phục vụ các mục tiêu dân chủ, chứ không phải chỉ là mục tiêu kỹ
trị trung lập hoặc lợi nhuận thương mại.
.gif)
.jpg)
