上一篇跟大家分享過人工智能帶來的好處,今次和大家分享一下人工智能帶來的危機。
在開始寫這一篇文章之前,我特意問了ChatGPT,它覺得自己會帶來什麼危機。它給我的答案是以下幾點:就業危機﹑倫理和隱私問題﹑安全風險﹑極端主義和歧視﹑軍事危機和控制問題。在這些答案裏,我覺得倫理和隱私問題﹑軍事危機和安全風險是最重要,因為其他危機都可以靠着人類的努力去控制及加以改善。眾多危機當中,我最不想看見軍事危機,我亦不想見到有人工智能開發軍事系統,因為後果不堪設想。然而,今次我想跟大家討論一下人工智能帶來的倫理和隱私問題及安全風險。
重溫︰人工智能的考驗
在最近的美國總統初選,有人工智製造出不同宣傳影片,而這些影片的內容真確性亦受到廣泛討論,其中一個候選人甚至公開批評這些影片是虛構。我特意觀看了這些影片。說實話,我都不能分辨影片究竟是真是假。加州大學柏克萊分校計算機科學教授歐布萊恩(James O’Brien)說:「終有一天,AI系統可以生成與真實無異的影像。屆時,人類就再無法偵測到影像是否由AI生成了。」這導致我們反思,人工智能在學習過程所讀取的大數據,會牽涉個人私隱及虛假訊息,而最大的問題是人工智能不但不會自動刪除這些假信息,還可以製造與真實訊息相似度極高的虛假訊息。舉一個例子,當我們乘坐飛機到外地旅遊的時候,如果有不法分子取得我們的外遊紀錄,他們可以利用我們對家人的關心,使用人工智能製造一段虛假的綁架影片,在短時間內騙我們交付贖金,而當我們不能分辨人工智能製造的影片孰真孰假的時候,就會很容易墮入陷阱。故此,我們必須要清楚地知道如何保護個人私隱訊息。在社交媒體大數據風行的時代裏,如何有效地規限人工智讀取及學習有關於隱私的資訊,以及怎樣有效地用法律規管人工智能製造的虛假訊息,非常值得我們去探討及即時制定對策。
第二方面是安全風險。如果人工智能系統沒有足夠的保護,極有可能受到黑客攻擊,導致系統失控或造成傷害。在現今時代,黑客攻擊並不是新鮮事,而現今大部份的黑客都是為了得到公司內部或客人資料而作出攻擊。如果未來黑客把目標轉移到人工智能系統,將會導致失控情況,不單會洩漏客戶資料,更會令人工智能發出錯誤訊息。舉一個簡單的例子,現在大部份公司都會使用人工智能來回覆客戶查詢。假如有黑客針對人工智能客戶服務系統攻擊,不單會令系統在短時間內癱瘓,更可以利用人工智能系統奪取更多客戶資訊,甚至乎可以向客戶提供公司的利益而令公司蒙受損失。假如將來一家上市公司的人工智能系統被攻擊,黑客隨時可以捏造上市公司的動向而導致股價波動,最後損失的不只是公司,更會影響投資者。
本人覺得人工智能只需要制定標準就能安心使用。其實國際間已經就着人工智能部份範圍的標準開始展開討論,甚至已經制定了部份標準,例如在2022年推出的ISO 23053:2022「使用機器學習的人工智能系統框架」;在2023年推出ISO 23894:2023 「人工智能資訊風險管理指引」初稿,現在還在完善及討論當中;現時亦有很多關於不同領域的人工智能國際標準在研究中。我們要小心應用人工智能之外,而標準化的指引亦會給我們基本規範。希望各位可以把人工智能用在正途上,避免不必要的風險。