我們只是人類:消除人工智慧的偏見

You can find your suitable discuss about email list.
Post Reply
rootxclown008
Posts: 6
Joined: Sun Oct 29, 2023 8:17 am

我們只是人類:消除人工智慧的偏見

Post by rootxclown008 »

如今,很明顯,我們越多地利用人工智慧 (AI) 技術(例如 ChatGPT),它就會變得越聰明、似乎越自力更生。 不幸的是,隨著這些進步,人工智慧偏見的風險也更高。 越來越明顯的是,就像人類一樣,機器人也會產生與種族、性別、性取向和殘疾等各種人口統計相關的偏見。 換句話說,人工智慧可能會受到我們自己的個人偏見和習得行為的影響,無論這些偏見是多麼無意識或隱性。 偏見的說明 - 統計、人為和系統。 資料來源:國家標準技術研究院資料來源:國家標準技術研究院這就是演算法演算法通常是為了解決特定問題或任務而開發的。 設計演算法的主要步驟之一是收集和理解數據。 雖然制定解決方案的流程似乎很簡單,但總是會有細微差別。 設計公平人工智慧演算法的一個重要問題是無法存取與邊緣化社群和人群相關的數據。 算法本身並沒有偏見; 這是我們提供給它的數據。 如果沒有適當的數據,某些人群的代表性將不足,從而導致數據傾斜、預測分析有缺陷以及演算法歧視的可能性。 演算法開發完成後,應該進行內部測試和審核(可能由外部實體進行)。

演算法實施後,必須在其整個生命週期中持續監控,特別是如果您的團隊缺乏 丹麦 WhatsApp 号码数据 必要的多樣性和替代觀點來應對挑戰。 這是數據人工智慧偏見的另一種解釋是使用不完整和/或不準確的數據。 需要全面的數據來避免無意的偏見。 資料的收集和資料實踐必須能夠代表所有人群,才能確保更具包容性的體驗和公平的AI模型輸出。 例如,使用哪些資料來訓練模型? 如果相關數據的存取受到限制,演算法偏差、資料集偏差和認知偏差只是可能導致歧視性結果的幾個例子。 人工智慧道德資訊圖的 4 個階段:現實世界偏見、數據偏見、演算法偏見和商業偏見 資料來源:高德納儘管人們意識到人工智慧偏見的問題,但面對它並不是一項簡單或單一的任務。 人工智慧偏見的一個主要例子是臉部識別,事實證明,臉部辨識是身分識別中使用的最不準確的生物辨識技術。 ProPublica 在 2016 年進行的一項著名研究得出的結論是,當時用於預測被告累犯的人工智慧演算法本質上對黑人存在偏見。 也就是說,演算法歧視是影響資料集最常見的問題。 提供的數據是否透明? 您公司缺乏多元化是否會對您使用的數據產生負面影響? 如果是這樣,徵求外部利害關係人的回饋可以幫助消除偏見。 是我們在數據決策過程中,個人和文化偏見以及基本主體性可能非常微妙。 這就是為什麼僱用一支擁有不同經驗和觀點的多元化團隊如此重要的原因之一。

Image

代表性不足的人可以辨識出其他人可能沒有意識到的偏見。 各企業數據偏差成熟度的資訊圖。 資料來源:進展出版物資料來源:“數據偏差:人工智慧的隱藏風險”,Progress在最近接受 BetaNews 採訪時,軟體公司 Progress 的技術副總裁 Matthieu Jonglez 指出,研究表明,三分之二的組織認為目前他們的流程存在數據偏差。 他關於減少這種偏見的一些建議是創建更強大的數據政策以及衡量偏見的機制。 Jonglez 也建議在所有人工智慧使用中建立透明度,因為「透明度是消除偏見的解藥」。 人類偏見,從認知偏見到分類,永遠不會從人工智慧中完全消除。 但有許多保護措施可以幫助實現公司多元化; 公平數據; 並實施與人工智慧技術的使用相關的更周到的流程。
Post Reply