紀錄片/當「效率」成為最高目標時,我們究竟逐漸失去什麼?

這齣《編碼偏見》大概在我的朋友圈裡推薦過一輪,因為最近一直抽不出完整的時間看,總是斷斷續續地看這部,直到昨天晚上終於看完了,因為這個片的內容有一些跟《智能社會:進退兩難》有點像,所以那些不太一樣的部分特別吸引我的注意。

▼「演算法」的黑盒子,可能成為「系統性偏見」的來源。
我們都不清楚的「演算法」,可能因為餵養給系統的資訊是具有偏誤的,無論是因為設計者對自身狀況比較清楚導致的偏誤,或是透過過去的數據進行機械學習,但過去的數據本身就充滿偏誤,當我們今天談論「家庭」的時候,被餵養的照片一定是白種人的家庭為多,但不同種族、不同形式的家庭,可能並不在這樣的照片裡,因此這樣的「多元性不足」,自然導致機械學習的誤差,並成為「系統性偏見」的來源。例如:機械誤認「家庭」就是「某些人(例如白種人)的才是」。

當這樣的情況被毫無覺察地「應用」在不同領域,用來對人民施加「評分」、「審查履歷」、「預判犯罪可能」的時候,就會變成像《法官的受害者》一書裡法官個人會犯下的錯誤,卻透過工程師在寫程式的時候系統性地複製了這一切,寫程式的工程師無意識地個人的偏見,或是過去整體資料餵養帶來的無意識偏見卻會導致某些人受到嚴重的權利侵害。

影片裡提到一個女性獲得了兩次獎項,並有一份穩定的工作,但這些卻無法反映在法律應用的演算法內被看見,演算法依然認為她是會逃跑的,所以要求她必須要每週報到,可能主因只因為他是黑人,這其實是一種歧視,而這個歧視反而可能造成她為了去報到,丟了工作,又無法繼續努力成為社會的一員。

影片也提到另外一位老師,得了許多優秀教師獎,但卻被篩選教師是否適任的演算法評定為不適任,並因此萌生嚴重的自我懷疑,雖然後來開啟訴訟要挽回名譽,但被演算法傷害認為自己或許不適任的納悶,讓他的臉上總是帶著一種憂鬱。

▼最有「效率」的事,不見得是對「人」最重要的事。
像是前面提到的這個教師,學校、同儕、學生都很喜歡他,也因此獲得了許多被認同的獎項,但卻會被AI評定為「不適任」,每一個「編碼」的後面,如何思考「適任」、「效益最大化」的那一切,可能都無法反映「人」的需要。

最擅長傳授知識,能在一分鐘內提供最多知識的就是好老師嗎?最擅長讓學生記得知識,能夠在短時間內考得高分的就是好老師嗎?最擅長跟學生建立關係,能讓學生願意留在學習裡的就是好老師嗎?那「建立關係」的指標該怎麼定?最願意協助學生克服挫折,是人生中想求救時總會想起的老師,這就是好老師嗎?那這個指標又該怎麼定?

「指標」跟「效率」的迫切需求,是無法化約「人」這個複雜存在的。

影片裡面有一個段落,我覺得很喜歡,一個俄羅斯軍人在螢幕上看到美國對俄羅斯發射了一枚核武器,他沒有按下反擊鍵,也沒有通知任何人,就只是靜靜地等待一切發生,他想著「至少我們不會也傷害他們」,結果,這是一場烏龍,但那個軍人的「不服從」、「沒有效率」的反映,卻避免了一場可能的災難。

人的沒有效率,不總是選擇最有效率的路,不按邏輯走的一切,其實很珍貴。

關於那些「不服從」「不走阻力最小的路」「不跟隨著內心的恐慌搖擺」,其實是珍貴的,也是力量很大的,屬於「人」的力量的展現,關於柔軟與彈性的解決各種問題,或放棄解決某些問題,那些選擇,其實也都是充滿「人」味的事。

不只是「效益」而是「人」,看到人的可貴,與人的獨特。

▼當「過去」可以用來「預測」未來,我們將失去什麼。
相較之下,看到影片裡的支付寶刷臉服務,我真心有點被嚇到,真心相信這樣的一個系統。喜歡應用刷臉服務的女孩,她也相信在這樣的系統裡「好評價」「高分的人」必然值得交往,這件事,其實某個程度上是讓渡了自己的決策權,能好好地從零開始認識一個人的權利,而將自己對人的信任交由「演算法」來決定。

當「評價」開始超過「人」的時候,我總覺得是個隱憂。

不是看到每一個具體的人,而是想透過某種方式快速地判斷這個人是否可信任,於是每個人的「過去」就會等於「現在」,但這一切卻是致命且可怕的,因為我們預設了每個人都不太會「改變」「覺察」跟「醒悟」,所謂的金盆洗手、或是周公禪讓都不可能發生,因為「過去等於現在」,你就是這樣的人。

很恐怖,很值得反思,關於一個「演算法」逐漸統治的世界。

人,如何更「人」一點,或是我們選擇對演算法更投降一點。

願每顆在當代社會裡習慣於評價與被評價的心,都能憶起那種深刻地善意與人無窮的潛力,不是分類彼此,而是支撐彼此往善意的方向前進。

#Netflix#編碼偏見#歷史裡的那些小偏見累積成大偏見#人們該對不清楚內容究竟是什麼的演算法相信到什麼程度#不自動化的那一切或許才是充滿人性的

發表留言

在WordPress.com寫網誌.

向上 ↑