WELCOME DATA LAND|文字探勘 (Data Analytics)
IPFS
自1996年起,網路世代崛起,發佈於網路上的數據逐年提升。近幾週 OpenAI 推出的 ChatGPT 被民眾廣為使用,大家都想知道究竟 AI 能給予多專業的回應,然而,關於這些被新增在網路上的內容,包含文字、數字或圖表等資訊,發佈後誰能使用呢?使用文字探勘所隱藏的那條線究竟在哪裡?所謂公平性 (Fairness) 、普惠 (Inclusiveness) 、可究責性 (Accountability) 、透明性 (Transparency) 又是什麼呢?
01 公平性
演算法的公平性 (Algorithm Fairness) 絕非一種,包含群體公平性 (Group Fairness) 、個體公平性 (Individual Fairness) 、置換公平性 (Counterfactural Fairness) ,以及應用公平性(Application specific Fairness)。
- 群體公平性 Group Fairness
何謂群體?群體包含種族、宗教、身心障礙、性別及族群個性。若想知道演算法是否有符合群體公平性,可以思索演算法是否有將種族、宗教、身心障礙、性別及族群個性都考量在內,例如:公司人資部門藉由 AI 進行履歷篩選,面試機會是否有開放給所有族群,另外演算法的設置規劃,是否得利於某些群體。 - 個體公平性 Individual Fairness
個體公平性,指的是相容類型的個體經由演算法運算,能否擁有相同的結果。倘若相似之個體,所擁有的結果不同,我們就能說此演算法違反個體公平性。 - 置換公平性 Counterfactural Fairness
修正後的演算法,倘若會因而淘汰或移除掉某些個體或族群,我們就會說其違反置換公平性,例如:公司人資部門調整 AI 篩選履歷的流程,讓系統更精準的挑選出面試者,然而,此修正卻讓某些應徵者因而無法參與面試,我們就會說新修正的演算法在置換公平性上仍有需要調整的空間。 - 應用公平性 Application specific Fairness
應用公平性,指的是個體或族群是否擁有相同取得訊息的機會。現今,由於公司在進行產品行銷和商品宣傳時,都會依照特定族群進行對應圖文設置的曝光,因此便會需要特別留意演算法的應用公平性,確定能否將資訊曝光至所有群體。
02 普惠
普惠 (Inclusiveness) ,指的是在演算法中,所有民眾是否有同等機會不被排除。
03 可究責性
可究責性 (Accountability),指的是當演算法出了狀況,是否有相關單位能協助民眾後續的處理,包含責任歸屬、雲端上的資料,以及賠償責任等內容。
04 透明性
透明性 (Transparency),指的是該單位是否賦權,將檔案和演算法運算步驟公開,增加民眾對於資源及機會分配的理解,進而提供信任基礎,並確保可課責性。
💬 留言分享你覺得公平的演算法,也可以談談你和ChatGPT的對話^^
如果喜歡窩DEMAA的內容
追蹤分享「 窩DEMAA Instagram 」
鼓勵是我們最大的動力窩 ❤️
你的支持鼓勵是給我們最大的動力窩 ❤️
- 来自作者
- 相关推荐