谷歌AI:低風險決策,只需監(jiān)督即可
隨著人工智能(AI)的飛速發(fā)展,其在各個領域的應用也日益廣泛。谷歌作為全球領先的科技公司,其生成式AI工具在許多高風險領域的應用引起了人們的關注。然而,谷歌最新的使用政策更新表明,只要有人工監(jiān)督,客戶可以在“高風險”領域使用谷歌的生成式AI工具來作出“自動化決策”。
首先,我們需要明確一點,自動化決策是指AI系統(tǒng)基于事實或推斷數據作出的決策。例如,AI可能會根據申請人的數據作出是否批準貸款的決定,或者篩選求職者。然而,這些決策往往涉及到個人權利和利益,因此,對自動化決策的監(jiān)督和管理就顯得尤為重要。
谷歌的新政策明確表示,涉及生成式AI的高風險自動化決策應當全面禁止。然而,谷歌向外媒透露,其生成式AI“實際上從未禁止”過高風險領域的自動化決策,前提是有人工監(jiān)督。這一改變無疑為AI在風險較高領域的廣泛應用提供了新的可能性。
在人工智能領域,人工監(jiān)督要求一直存在,適用于所有高風險領域。這主要是因為高風險的自動化決策可能對個人權利產生重大不利影響。例如,用于審批信用和抵押貸款申請的AI系統(tǒng)可能會加劇歷史上的歧視問題。因此,為了確保公平和透明,需要有人類監(jiān)督來確保決策的公正性。
谷歌發(fā)言人在接受采訪時表示:“我們只是對條款進行了重新分類,并更清楚地列舉了一些具體例子,目的是讓用戶更加明了。”這一解釋表明,谷歌正在努力提供更加清晰和透明的使用政策,以滿足用戶的需求和期望。
值得注意的是,盡管自動化決策在許多情況下可以提高效率和準確性,但它們也可能存在偏見和歧視問題。因此,為了確保公平和透明,需要有人類監(jiān)督來確保決策的公正性。監(jiān)管機構對AI的潛在偏見表示關切也是有道理的。然而,通過有人類監(jiān)督的自動化決策,我們可以更好地平衡效率和公平性之間的關系,同時確保決策的公正性和透明度。
總的來說,谷歌的新政策明確表示只要有人工監(jiān)督,客戶可以在“高風險”領域使用其生成式AI工具來作出“自動決策”。這一變化為AI在風險較高領域的廣泛應用提供了新的可能性,同時確保了公平和透明的決策過程。然而,隨著AI技術的發(fā)展和應用,我們還需要繼續(xù)關注和解決相關的問題和挑戰(zhàn)。
在未來,我們期待看到更多的研究和開發(fā)工作集中在如何確保AI系統(tǒng)的公正性和透明度上。同時,監(jiān)管機構和用戶也需要繼續(xù)關注和評估AI的應用,以確保其在合法、公平和透明的基礎上發(fā)揮最大的潛力。總之,人工智能的發(fā)展是一個不斷演進的過程,我們需要持續(xù)關注和努力,以確保其健康、可持續(xù)的發(fā)展。
(免責聲明:本網站內容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網站出現的信息,均僅供參考。本網站將盡力確保所提供信息的準確性及可靠性,但不保證有關資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責。本網站對有關資料所引致的錯誤、不確或遺漏,概不負任何法律責任。
任何單位或個人認為本網站中的網頁或鏈接內容可能涉嫌侵犯其知識產權或存在不實內容時,應及時向本網站提出書面權利通知或不實情況說明,并提供身份證明、權屬證明及詳細侵權或不實情況證明。本網站在收到上述法律文件后,將會依法盡快聯系相關文章源頭核實,溝通刪除相關內容或斷開相關鏈接。 )