2021年5月13日至6月3日每周四下午,由香港中文大學法律學院助理院長兼本科課程主任李治安副教授主講,beat365知識産權法研究中心主任崔國斌副教授和劉迪博士主持的系列學術講座在線上展開。
本系列講座主要包括三個主題共四場,分别為“新芝加哥學派與程序代碼的規範效力理論”、“英國法律和香港特别行政區法律對人工智能生成内容的著作權保護”以及“人工智能偏見的法律與道德意涵”。

一、新芝加哥學派與“代碼即法律”理論
2021年5月13日
第一場講座的主題是“新芝加哥學派與程序代碼的規範效力理論”。李教授首先從美國法官兼學者Frank Easterbrook的“馬法(Law of the Horse)”觀點引入講座主題,其認為不應該建立專門的網絡法,隻需要使用通用規則即可。而後開始重點介紹美國網絡法巨擘Lawrence Lessig教授在上世紀90年代末期提出的新芝加哥學派主張,即不同管制因素對人類行為的影響,主要包括了法律(Law)、社會規範(Social norm)、市場(Market)與架構(Architecture)等四個因素。一般而言,市場的主要表現是價格會影響人們對于商品的選擇,從而産生不同的行為。社會規範雖然不屬于強制性規範,但是有時比法律還有效。此處,李教授舉了日本同人漫畫的例子,同人漫畫在日本通常沒有被訴的風險,因為這是這一行業約定俗成的社會規範。同時,架構(Architecture)是指事物既定的狀态、特征(如同技術本身),通常表現為對人們行為的限制。就好比錢包可以被偷,但是房子由于其不動産的性質不能被直接“拿走”,這就是架構對人行為的影響。随後,李教授又列舉了“圓形監獄(Panopticon)”、美國最高法院等例子來解釋架構對于人類行為的影響,并以獨立董事等實例來闡釋四因素的具體适用。Lessig教授以“代碼(Code)”為核心,提出了對當代網絡法研究與實踐影響深遠的理論範式。在李教授看來,通過代碼來管制社會将會帶來許多問題:一是相較于高昂的立法成本,代碼更容易更改和潛移默化地控制人的行為;二是代碼沒有立法那樣透明,可能會隐藏控制者和程序員的真正意圖;三是相比于這些基于立法的管制,基于代碼的管制更難評估其合理性和優點。最後,李教授以汽車安全帶、公交車自動付款等事例來解釋了四個因素的互動。
二、人工智能生成内容的著作權保護
2021年5月20日
第二場講座的主題是“英國法律和香港特别行政區法律對人工智能生成内容的著作權保護”。李教授首先介紹了英國1988年《版權、外觀設計和專利法案》(CDPA),在該法案中就已經有了對電腦生成作品的定義,同時也對該作品類型的作者給出了定義——為創作該作品而進行必要安排的人。對于電腦生成作品來說,作者通常是程序員。李教授随後進行了比較法上的介紹,美國不保護機器生成的作品,而歐洲也有比較嚴格的标準——作品中一定要包含作者的人格,否則難以成為作品。李教授接着對英國Nova Productions v. Mazooma Games and Others 案進行了介紹,該案的判決也對前述結論進行了肯定。之後,李教授講解了人工智能生成作品和電腦生成作品的差别:主要在于人工智能生成作品更具有不可預測性。這就帶來了許多新問題:著作權是否受到過度保護,作者的認定,共同創作的認定和著作權保護期間等。通常情況下,人工智能軟件本身都會受到版權法或者專利法的保護,如果此時再将人工智能生成作品給予版權保護,又同時将其作者認定為開發人工智能軟件的程序員,那麼開發軟件這一行為受到了兩次保護,就會産生過度保護的問題。從立法目的看,保護知識産權是為了激勵創新。但是在目前人工智能領域中,制度雖然沒有提供對人工智能生成作品的軟件保護,但事實上科技公司并沒有因此減少相應的投入。所以,從此角度來講,該領域是否需要版權的保護來激勵創新也是存疑的。此外,如果給予人工智能生成作品著作權保護,開源的軟件可能導緻作品的産生有兩個以上的主體參與,此時的問題是共同創作應如何認定?軟件開發者過世後,人工智能軟件可以繼續産生作品,此時作品的保護期間又應當如何認定?當前上述問題都難以回答。因此,目前賦予人工智能生成作品著作權保護可能并不是一個很好的選擇。
三、人工智能偏見和法律與道德意涵
2021年5月27日、6月3日
第三、四場講座的主題是“人工智能偏見的法律與道德意涵”。人工智能技術在公私部門的廣泛應用固然創造了巨大價值,但有時也會帶來對不同種族、性别與社會階級的偏見。而這些偏見的形成與強化無疑會對公民社會造成傷害。在這兩場講座中,李教授跟大家介紹并讨論了人工智能算法黑箱與可能造成的偏見、人工智能的可解釋性與可能的管制對策等。李教授首先從谷歌翻譯、谷歌Allo和微軟Tay Tweets三個例子出發,介紹了人工智能偏見的具體表現。此後,通過無人駕駛的例子重點讨論了價值決策的問題。李教授接着引入在第一講中提及的新芝加哥學派分析框架,分别從市場、社會規範、技術和法律四個方面進行了分析。從市場來看,不好的一面在于某些公司通過算法推薦,監控、利用用戶來獲取利益;好的一面是越來越多的企業提供無偏見的人工智能服務,如以谷歌為代表的公司還提供了人工智能倫理服務。從社會規範來看,大多數公司在涉及人工智能服務時有如下規定:人工智能的決定需要尊重人權、具有可解釋性與具有可問責性等。李教授接着從Google & Project Maven的例子入手,和同學們展開了讨論分析。從技術來看,導緻偏見産生的原因有:大數據分析都是基于現有的數據,與未來的發展趨勢不一定相符;數據通常具有不平衡、不包容等特性,進而導緻了偏見的産生。當然,上述問題亦有相應的解決方式:在曆史數據中加入無偏見的數據,并不使用種族、性别、宗教等特征點。從法律方面來看,美國國會于2019年提出了《算法問責制法案(Algorithmic Accountability Act)》,規定了要對人工智能軟件進行偏見評估,美國聯邦貿易委員會(FTC)可以要求查看其代碼等。同時,算法被要求具有透明度,即隻有當利益相關者能夠獲得關于設計、開發、部署、操作等信息時,人工智能才能在法律上被接受。李教授還介紹了2021年4月公布的歐盟基于風險分析的《人工智能法》提案(全名為:“Laying Down Harmonised Rules on Artificial Intelligence (Artificial Intelligence Act) And Amending Certain Union Legislative Acts”)。最後李教授給人工智能開發公司提供了一些建議,如成立人工智能道德委員會、制定專門的人工智能政策、确保人工智能行為的可解釋性、可審查性和透明性等。本次系列講座結合英國、美國和歐洲等立法及相關案例,對人工智能領域的著作權法核心問題進行了深入地講解和讨論,論理清晰、案例豐富,參會師生和聽衆都有較大的收獲。
本系列講座錄屏在線觀看鍊接 | LINK
https://cloud.tsinghua.edu.cn/d/022a236da23141c0a0be/