国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

人工智能介入董事會的董事義務與責任重釋

2022-11-25 14:21
關鍵詞:董事董事會義務

程 威

(清華大學 法學院, 北京 100084)

近些年,人工智能對于現(xiàn)有社會運作機制形成全方位沖擊,并有望重塑未來的法律體系[1]。以營利性為本質的公司自然也逃脫不了技術發(fā)展的介入。一方面,擁抱人工智能將改進生產(chǎn)工序、促進信息傳遞,極大提升運營效率,所以企業(yè)對于人工智能技術在基礎部門的部署愈加重視,并試圖通過技術投入替代人力成本[2];另一方面,隨著人工智能深度學習算法的不斷優(yōu)化,智能機器介入董事會已然呈現(xiàn),從邊緣性的量化工具漸次介入決策過程,即影響到企業(yè)運營的大腦。前者僅是流水線意義上的效率改進,而后者涉及決策選擇與長期運營等結構化安排。董事會作為公司經(jīng)營管理的中樞機關,其義務實現(xiàn)與責任約束關乎代理成本縮減及公司治理績效[3],從更廣泛的意義上來說,如果未能對智能算法之于董事會機關的決策風險加以識別和管控,企業(yè)內(nèi)部流程化的運營機制或可無礙,但公司作為法人實體其組織性功能如機關權衡、利益分配等將受到不利影響。

人工智能法學在前瞻性地討論技術應用的預測之外,對于現(xiàn)實而緊迫的算法實踐亦應有所消化。在公司治理的規(guī)范場域,人工智能介入董事會的具體場景為何?人工智能對傳統(tǒng)董事會的義務架構和責任機制形成什么挑戰(zhàn)?如何重塑董事會的義務體系與責任安排?這些問題牽動公司法研究的主線,也涉及目前及今后不遠的公司治理實踐。筆者認為,應在現(xiàn)有技術成熟的條件限度內(nèi)對人工智能作用于董事會的可能場景加以明確,解析其對董事會法律義務與責任的沖擊,并結合其技術特點和公司法理的最新進展,探尋人工智能介入董事會的公司法應對。本文將以前述問題和理念為主軸,具體探討人工智能技術介入董事會場景下所涉及到的基本法律關系。

一、 人工智能介入董事會的場景與限度

通常來說,公司管理事務根據(jù)介入的心智程度可分為勤務類事項(administrative tasks)與決策類事項。勤務類事項在公司治理背景下主要指行政協(xié)調(diào)和例行事務,包括但不限于日程規(guī)劃、資源收集和信息報告等。這類事務的特點在于重復性、流程化,其工作內(nèi)容相對單一,不需要復雜的心智投入。目前流行的人工智能解放勞動力的觀點,主要指這類事務被大規(guī)模取代的可能性日漸提高。

與勤務類事項參與之目的在于簡化升級運營流程不同,決策工作的核心是判辨力的投入(judgement work),即通過運用理智、洞察力以及人情世故等判斷決議方案通過與否,其事項包括與戰(zhàn)略、創(chuàng)新、創(chuàng)造性思維和人員管理相關的公司領導任務[2]。這類工作的特點是團隊協(xié)作頻密、待處理情景復雜、心智投入較高。在公司治理語境下,體現(xiàn)比較突出的便是公司董事會的事務,而人工智能介入董事會主要就是指以算法驅動為導向的智能機器參與,其涉及到對具體利益的評價過程,所以對參與主體的要求并不僅限于人力智能,還包括其他能力。進而言之,決策工作雖有獨立判斷的空間,但一般以集體共治呈現(xiàn),它需要團隊協(xié)作的配合能力、事務規(guī)劃的人際溝通能力,以及各自的社會網(wǎng)絡聯(lián)系等技巧。比如公司治理實踐中董事會成員的身份一般較為多元化,甚至在美國公司中獨立董事成員居多數(shù),且多為其他公司的高管[4]90,他們往往有比較豐富的社會聯(lián)系,這正是為了拓展董事會戰(zhàn)略決策所需要的信息資源。盡管人工智能對各類工作的取代有加快趨勢,但對決策工作而言,其難以廣泛獲取與決策相關的成員所具有的特質與信息,因此介入的空間受限與難度加大。不過技術始終處于發(fā)展的過程中,根據(jù)人工智能發(fā)展水平和技術自主性的高低,智能機器參與董事會的程度將呈現(xiàn)以下嬗變樣態(tài)。

1. 協(xié)助董事模式

協(xié)助董事是指智能機器承擔董事會的助手職能,協(xié)助處理一般程序性和信息收集的事務,其自主性水平較低甚至沒有自主性。相應地,其對公司績效的輔助實現(xiàn)也頗為受限。董事會中的人工智能除了借助移動端進行協(xié)助服務,更主要的應用場景體現(xiàn)在智能化會議服務系統(tǒng),該系統(tǒng)在董事會的會議記錄、音頻處理、線上統(tǒng)籌等方面提升了辦公效率。利用這一協(xié)助模式的原因在于,相關算法在特定的任務范圍內(nèi)比自然人做得更好,但本質上來看,其并不具備自主性,仍然隸屬于勤務類事項范疇,其所取代的是董事會的會議秘書等工作。

2. 董事顧問模式

董事的智能顧問模式下,對智能系統(tǒng)要求更高,人工智能可以“通過提問和回復以及構建場景和模擬,為解決更復雜的問題和決策提供支持”。英國特許會計師協(xié)會在一份名為《公司顧問中的人工智能》報告中,對人工智能為公司提供顧問服務抱以期待,預計其將對投資策略的設計、專業(yè)意見的咨詢等提供優(yōu)化方案。事實上,在投資顧問領域,智能投資顧問已經(jīng)有充分實踐[5]。相比于協(xié)助董事模式,智能顧問對于公司績效的輔助實現(xiàn)功能更為顯著,其自主性水平也更高。但就具體的決議事項而言,智能顧問的自主性依附于董事,其并未取代自然人,而是通過匯集對自然人而言無法輕易獲取或進行計算處理的信息內(nèi)容,增強并改善人類智能,所以毋寧說是將自然人的智能與人工智能進行了充分糅合,而自然人始終居于主導和控場的地位。就本質而言,董事顧問模式與協(xié)助董事模式屬于同一種樣態(tài),僅僅是協(xié)助的深化程度不同而已。

人工智能為董事會提供協(xié)助顧問服務的業(yè)務模式主要有兩種。第一種是市場上存在專業(yè)生產(chǎn)并銷售人工智能機器的企業(yè),不同的公司基于自身條件選擇購買,以納入內(nèi)部決策系統(tǒng)。該種模式下,生產(chǎn)者提供的是物理機器、操作程序,智能計算所需的數(shù)據(jù)由企業(yè)自行提供。這種業(yè)務模式主要應用于經(jīng)營規(guī)模較大、數(shù)據(jù)樣本較多的企業(yè)中。另一種是專業(yè)的第三方公司治理顧問機構設計人工智能機器,從而為不同公司提供個性化的治理意見,它并不銷售人工智能機器,僅僅輸出治理意見,其特點在于第三方機構自己匯集信息,并專于分析數(shù)據(jù)[6]。實際上,人工智能顧問服務和外包機制天然地具有相似性和契合度,外包服務依賴于公司需要利用其內(nèi)部不具有的專業(yè)技能,而人工智能依賴于公司需要利用其人力資源無法提供的能力。在此情況下,人工智能顧問的外包服務應運而生。這種模式多發(fā)生在無法提供機器學習所需的海量樣本的小數(shù)據(jù)規(guī)模企業(yè)。兩種模式均不同程度上影響到董事會的機制運作。

3. 替代董事模式

人工智能替代自然人成為董事會獨立成員,這種模式是關于智能技術大膽假設的合理演繹?!凹夹g實踐可能很快就會為人工智能取代董事而非僅僅扮演輔助功能提供可能性?!盵7]在這一形態(tài)下,算法初步具備獨立的實體資格,可以針對具體的商業(yè)決策作出專業(yè)選擇。此時人工智能將根據(jù)意見評估積極自主地參與到董事會決策中,且決策權切實落于機器之手。

從協(xié)助、顧問到替代模式,伴隨著決策權的移交。其中人工智能替代董事模式是質的變化,它從依附于董事轉向自主決定,而自主性的前提問題是人工智能法律人格的承認與否。從目前整體的研究而言,盡管有論者認為智能機器人自主性日漸提升,工具屬性式微,而應將其視為獨立于所有人或使用人的法律實體[8],而且,只有賦予其權利義務承擔者身份才能解決法律工具主義視野下的歸責困局[9],但保守的私法立場和未臻成熟的技術動向均表明該問題應進一步觀察而非提前定調(diào)。因為人工智能的主體性地位問題事涉?zhèn)惱碓u價:人類如何為一個可能比自己更智能的主體立法?為之立法是事實上不可能還是法律上無意義?聚訟紛呈,破解之途仍有賴技術反饋。鑒此,本文所議焦點僅限于“協(xié)助—顧問”這樣一種由自然人董事主導的情境。

由于董事會是公司生產(chǎn)團隊模型中的“協(xié)調(diào)性層級制度”(mediating hierarchy),對于事前防范激勵機制失靈、事后約束集體行動困境具有核心作用[10],董事成員的義務體系和責任分配關乎股東利益實現(xiàn)和一般社會責任的遵守,嵌入人工智能后,必然撼動現(xiàn)存的董事會制度,以適應性為專長的公司法應當認真對待人工智能介入。

二、 人工智能對傳統(tǒng)董事會義務與責任的挑戰(zhàn)

現(xiàn)代公司制以所有權與經(jīng)營權分離為典型特征,執(zhí)掌經(jīng)營權的董事會被視為公司(股東)受托人,由此形成股東與董事間利益偏離即代理成本發(fā)生之可能性[11]。為了更好地敦促董事履行其職責,公司法規(guī)定董事會須遵守信義義務限制,并以其義務之適當履行豁免違信責任之追究。人工智能輔助強化董事決策,使得決策行為的作出變成人機混合過程,董事意志隱身其后,算法決策走向臺前,準確界定董事義務履行的難度增加,傳統(tǒng)上對于董事會施加的義務要求和責任構成由此面臨困境。

1. 傳統(tǒng)模式下董事會義務體系與責任機制

傳統(tǒng)公司治理中,董事會被視為專業(yè)管理能力的出售者,其與股東之間因為專業(yè)關系而形成了信義關系,并對股東負擔信義義務。董事會的相關決策以其成員集體意志作出,不同成員根據(jù)自身的知識背景、與特定資源的具體聯(lián)系、邏輯推理等個性化因素形成判斷的基礎。為了盡可能消除個別董事成員的認知偏見對決策效果的影響,獨立董事的平衡機制也發(fā)揮一定效用[12],董事對股東福利影響甚巨。公司法為了保護股東利益,設置了針對不同語境下的權利機制,即合同機制與非合同機制。通過合同機制約束代理成本的方式主要在于模擬董事與股東之間形成委托合同關系,進而以選任權與任意解除權管控董事的遴選與撤職,但其對董事行為的約束效果不彰。如選任權的行使一般只涉及結果,即被選入董事會的成員在選任程序完成后,其具體履職不一定以選任前的承諾等為準,股東對其控制力也隨之下降;而任意解除權也不構成對董事行為的震懾,因為一般而言,除非董事存在明顯不當行為,否則股東不應當輕易解除董事職務[4]95。在此條件下,作為非合同機制的信義義務成為一項有效的事后規(guī)制手段。

我國《公司法》第147條原則性規(guī)定了董事等管理層對公司所負有的信義義務,內(nèi)容上包括忠實義務與注意義務。忠實義務要求董事必須善意地為股東利益服務,避免利益沖突或利益沖突交易須經(jīng)股東批準,它是公司治理中董事對股東所負擔的基礎性義務。注意義務則要求董事必須善盡職守,“盡到處于相似位置的普通理性人在類似情況下所應盡到的注意”。如果董事在處理一項待決議案時,是在充分知情(informed)的基礎上進行的決策判斷,即便最終的交易結果對公司利益構成損害,也無需承擔責任。易言之,忠實義務限定了董事行為的倫理要求,不得損公肥私、不當妄為,注意義務關注董事行為的專業(yè)水準,不得消極懈怠、懶惰無為。信義義務之所以能夠有效地保護股東利益,在于其模糊而嚴厲的“威懾作用”[13]。其模糊性在于僅有宣示性的規(guī)定,并無特別清晰的配套指引,原因在于,假如為董事設定了輪廓明顯的行為邊界,反而使其得以借道突破、規(guī)避之,但該模糊性并非意指完全無跡可循,通過長期積累的經(jīng)驗,附屬規(guī)則與實施規(guī)則的形成逐步幫助確定了法律適用的邏輯,亦即在具體案件中,法官得根據(jù)案情特殊性結合法理一般性加以認定[13]。信義義務使得董事“戴著鐐銬起舞”,激勵與約束并舉,不斷以實現(xiàn)股東利益為行為準繩。

在責任構成上,信義義務違反由違法行為、主觀過錯、損害發(fā)生及因果關系構成。其中,主觀過錯的認定頗具特別法性格且居于核心地位。相較于一般侵權法理論,其特殊之處在于:第一,公司法對董事過失責任的認定傾向于采客觀標準,即借助程序性規(guī)則檢視董事行為的可責性。第二,確認董事違信責任時更傾向于重大過失標準,防止限縮董事的決策行為進而影響公司正常的經(jīng)營展開。

公司法上的信義義務與違信責任追究機制雖在不同法域有成熟度的差異,但均有效地實現(xiàn)了董事專業(yè)經(jīng)管與股東利益保護之間的平衡。但傳統(tǒng)模式下公司法所限定的描述場景是以自然人為主,法官可以通過外觀行為辨明自然人決策過程的合法性與合理性,對責任的認定往往有可信賴和可操作的程序,但人工智能介入董事會后,改變了董事會本來的運作生態(tài),傳統(tǒng)規(guī)則將面臨適用上的困境。

2. 人工智能介入下義務逃避和責任模糊問題

(1) 義務逃避

人工智能介入董事會后,使得董事決策環(huán)境變得復雜,算法決策的“黑箱”問題凸顯,在決策所依據(jù)的原始數(shù)據(jù)信息與最終的決策結果之間存在人們所無法洞悉的“隱層”[14],這不僅可能為董事卸責大開方便之門,也使得董事決策的考量因素疊加,進一步加重了其履職難度,反過來會強化董事的義務逃避行為。

首先,算法中立性沖淡乃至消解忠實義務之履行環(huán)境,使得董事逃避忠實義務約束更為便利。一般認為人工智能以機器學習為其主要特征。機器學習是一種典型算法,使得計算機模擬人腦挖掘數(shù)據(jù)信息并進行轉化獲取相應結果[15]。深度學習作為機器學習中的前沿算法模型,突破了傳統(tǒng)手工選取數(shù)據(jù)的限制,從原始特征出發(fā),自動學習高級特征組合,實現(xiàn)端到端的跨越,直接保證最終輸出最優(yōu)解[16]。在最優(yōu)解的達成中,算法被認為是始終處于中立狀態(tài),它只對數(shù)據(jù)負責,但假如原始數(shù)據(jù)本身被有意識地引導性修改,其最終決策結果將顯然失真,但該失真的計算過程難以被溯源。人工智能不會違反忠誠的標準,但并不意味著作為最終決策者的人類不會逃避忠實義務約束。典型的情形是董事在處理涉身利益有關的決策時,并未對智能機器坦誠相待,而是剔除或隱瞞了對自己不利的信息,進而導致最終的決策結果可能會損害公司的利益。

其次,算法介入使得董事“知情”的判斷環(huán)境復雜化,注意義務的履行難度隨之增加。知情基礎上的謹慎決策是董事豁免結果損害歸因的避風港,但該義務履行與個人地位緊密結合,并且對于不同的職位,有其不同的期許與規(guī)制[17]。個人地位因客觀環(huán)境的變化而有所調(diào)整,所以注意義務履行必須充分考慮所處環(huán)境的變更,人工智能就是重要的環(huán)境變更因素,這主要體現(xiàn)在以下方面。第一,人工智能得否進入董事會本身就構成一項重大的影響因素??紤]到人工智能的優(yōu)點,圍繞著具有自由裁量權的新型決策如建立和測試自動化系統(tǒng)本身的決策等變得重要,人工決策的剩余代理成本將越來越多地與戰(zhàn)略選擇相關,即判斷是否選擇適用以及如何規(guī)劃人工智能的決策成本隨之推高,“與其說總代理成本會下降,不如說是代理成本本身發(fā)生了轉化”[18]。第二,董事會在接受智能機器介入后,理直氣壯地將所有決策事項的選定權限交由后者,盡管名義上自然人是最終的決策者,但其僅僅是復述、執(zhí)行智能機器意見,沒有對智能機器提供的治理意見進行審慎監(jiān)督、細致排查,董事的知情基礎貌似得到智能機器輔助而滿足,但該知情是不假思索的執(zhí)行,是一種瑕疵的知情狀態(tài),同樣難以認定合乎注意義務本旨。綜上而言,算法介入不可避免地改變了對注意義務“知情”這一前提性要件的判斷環(huán)境,特別當事后的公共執(zhí)法機制也未能準確界定知情履行標準的情況下,對于董事而言,逃避這一義務顯然變得更加容易。

(2) 責任模糊

義務違反直接觸發(fā)責任承擔,與逃避信義義務緊密關聯(lián)的是責任的模糊。這主要體現(xiàn)在兩個方面,即過錯認定的模糊與歸責主體的模糊。

在過錯認定層面,人工智能介入影響主觀過錯的檢驗標準。其中,違反忠實義務的過錯認定較少存在模糊地帶,這與檢驗標準的客觀屬性有關,即法律預先設定了義務并對違反行為樣態(tài)初步具體化,一旦違反法定義務,便構成過失。對應到程序上,一般要求董事事先披露涉身利益,經(jīng)股東會批準方可滿足公平要求。智能機器介入下,設若人工智能作出的決策確實涉及到董事個人利益,董事作為最后的決策者,必須悉數(shù)披露方可免責,否則就構成忠實義務的違反。簡言之,由于忠實義務本旨在于促進董事對股東的信息披露[13],董事向股東隱瞞或不披露相關信息,即有產(chǎn)生義務違反的風險,智能機器介入僅僅是延長了問責過程,并未消除其問責的確定性。

與忠實義務相比,注意義務認定的難度將大幅增加,模糊地帶也隨之拓展。具體來看,注意義務一般采“理性人”的注意標準。關于理性人在公司治理語境中的理解,顯然不能按照普通大眾的認知水平進行評判。“理性人的內(nèi)在結構的核心部分是知識和能力問題”,“為了保護投資人的合理信賴……當具體董事因專業(yè)或職業(yè)等原因具備更高的知識儲備時,標準會被提高,那些超出普通商人應擁有的知識也應納入理性標準中”[19]。人工智能介入董事會后,注意義務的理性人標準也應按照技術條件而有所調(diào)高,對于董事成員而言,其在進行決策過程中采取的謹慎注意程度如何適應,并無可資借鑒的范本。在目前的董事會結構中,成員一般以專業(yè)的財會、法律和商業(yè)背景為主,熟悉技術特別是人工智能技術的董事成員較少,即便是存在智能系統(tǒng)專家,基于同業(yè)互敬的董事會結構傳統(tǒng)[12],信任其他董事往往比提出反對意見更符合董事自身利益,董事會最終作出的決策所負載的參考信息能否精準歸因于董事會所履行的注意義務,并不容易判斷,進而也難以準確識別人工智能提供的意見本身是否符合公司利益。此時,對于董事違反注意義務過錯的認定,將變得模糊不清。

在歸責主體層面,因人工智能顧問的業(yè)務形態(tài)差異而更趨復雜。在董事會購置獨立人工智能顧問系統(tǒng)的條件下,智能顧問機器的產(chǎn)品屬性決定了生產(chǎn)者/銷售者與作為買受人的公司及其董事會,在特定不利決策產(chǎn)生的損害結果上均有擔責風險。董事對智能顧問機器輸出意見的監(jiān)督和評價、智能機器本身的認識錯誤或者是自主學習條件下擅自修改程序造成損害、公司對董事吸收智能顧問機器決策過程的監(jiān)督等,不同程度上構成了最終責任認定的決斷參考因素,公司作為不利結果承受者很可能因無法找到真正的責任主體而自吞苦果。

在由第三方外包的智能顧問業(yè)務模式下,對于最終損害結果,公司及其董事、第三方機構亦均有苛責的可能性。隨著智能機器的成熟和行業(yè)倫理與規(guī)則的發(fā)展,第三方獨立機構在治理意見輸出的交易關系力量對比中扮演由弱到強的角色,進而從主要責任承擔者轉化為次要責任承擔者甚至不承擔責任。具言之,行業(yè)發(fā)展初期,為了獲取客戶資源及進行機器學習的訓練數(shù)據(jù),第三方機構不得不承諾提供定制化的專屬治理意見,且愿意為治理意見不當后果承擔最終責任,這種承諾減輕了董事責任。行業(yè)發(fā)展成熟后,為了減輕問責壓力,第三方機構可能會在服務合同中明確限制、排除自己所提供的治理意見造成的損害結果歸責,彼時,公司及其董事會特別是后者需要承擔的風險將隨之加重。歸責主體在此背景下存在模糊不定的狀態(tài)。

三、 重構人工智能語境下的董事義務體系與責任機制

我國公司治理機制在實踐引領與制度借鑒的過程中不斷地趨于完善。實踐中紛繁多樣的公司糾紛促進治理機制演繹,域外的治理進化趨勢也影響我國相關制度建構。2018年修訂的《上市公司治理準則》即屬對治理實踐的最新回應,但其內(nèi)容并未涉及對智能工具介入的規(guī)范。考慮到董事會質量的推進是全球性的關鍵議題,因此,在人工智能介入后,董事義務體系和責任分配問題,需要系統(tǒng)研究。

1. 人工智能語境下董事義務的新意與拓展

針對董事逃避義務的行為,一般有兩種策略予以回應。一種是限權策略,指的是最小化董事的自主權;另一種是股東介入策略,即對董事已經(jīng)無法充分履職且對公司利益有損害之虞,股東積極介入予以干預。兩種策略均建立在傳統(tǒng)的代理法基礎上,將委托人對代理人權限的限制手段復制到公司法中,但這僅僅是短期而非常態(tài)化的,而且“策略本身在保護委托人免受代理人過失或瀆職行為侵害的同時,也使得代理人無法實施對委托人有利的行為”[13]。將規(guī)范的焦點置于董事義務之上仍應是今后處理人工智能介入問題的主要手段,在具體內(nèi)容的設定上,應以促進董事問責與實現(xiàn)激勵的有效平衡為依歸,所以應當對董事義務體系予以更新。

(1) 董事信義義務的新意

人工智能語境下,董事逃避信義義務的原因在于決策環(huán)境的改變,這一方面激勵董事以人工智能顧問機器為“替罪羊”,另一方面抬升注意義務履行標準使得董事無法適切定位自身角色。因此,規(guī)制的問題重點在于,算法本身根據(jù)既定程序輸出的適當結果,是建立在并不透明的無監(jiān)督學習基礎之上,無監(jiān)督運算造成了算法與人類之間信息對稱性的失衡。對于無監(jiān)督學習,應有技術和法律兩個維度的規(guī)管機制。就技術維度而言,理想的情況是采用對技術參數(shù)進行嚴格檢測的方式,通過設定事先確認的標準對每一項人工智能產(chǎn)品加以嚴格的倫理審查,以防止脫離人類監(jiān)管。歐盟人工智能專家委員會在2019年發(fā)布的《可信賴的人工智能倫理準則》(EthicsGuidelinesforTrustworthyAI)便是應對智能機器風險審查的一項努力,準則中對可信賴AI強調(diào)應具備合法性、倫理性、魯棒性(即穩(wěn)健性)三個必要條件,在“設計倫理”(ethicsby design)的主導原則下推進AI發(fā)展策略,將人類優(yōu)先與技術安全置于優(yōu)位考量。所以,對人工智能這一風險敞口,技術層面的嚴格規(guī)制先于技術自身的發(fā)展程度。法律維度是對技術維度的立法實現(xiàn)與表達。如為了貫徹人類主導和防范人工智能反噬的危害,刑事法律層面可以將未經(jīng)審查的人工智能技術研制定性為犯罪行為從而施以刑事處罰[20],私法層面則嚴格拒斥賦予其主體地位并對其運營管理施加人力控制以保護市民社會運作的基本秩序。在公司法的視域下,強化對人工智能的監(jiān)督主要體現(xiàn)為董事的監(jiān)督義務,而這在公司法理中已有歷史基礎。

傳統(tǒng)的信義義務雖主要以忠實義務與注意義務為核心,但在其漫長的發(fā)展演變過程中,隨著事權分配的彌散化、去中心化,董事監(jiān)督義務也隨之興起并擴充了信義義務內(nèi)容。以董事違反監(jiān)督義務提起訴訟最早緣于美國特拉華州的Graham案,股東認為涉案公司董事因未對部門經(jīng)理與其他公司聯(lián)合定價的違法行為作出適當監(jiān)督,令公司蒙受處罰,應對此承擔責任。雖然最終原告敗訴,但監(jiān)督義務作為一項概念仍然被提出來而受到重視,也就是說,當董事將一定的決策與具體經(jīng)營權分離、下放至經(jīng)理層時,對于后者的行為,董事是否有積極監(jiān)督、偵查的義務,這將構成董事承擔對公司責任的重要因素。多年以后,在Caremark案中,與Graham案類似,針對股東提起的董事未妥善監(jiān)督雇員違法推銷醫(yī)療產(chǎn)品造成公司損失而應擔責的問題,特拉華州衡平法院對監(jiān)督義務進行了進一步的展開討論,認為董事會實際上有義務主動采取積極措施規(guī)避風險,“一個合理設計的組織,其目的是向管理層與董事會本身提供及時、準確的信息,以使管理層和董事會在各自的職責范圍內(nèi)就公司的守法情況和經(jīng)營業(yè)績作出知情的判斷”。因缺乏持續(xù)或系統(tǒng)性監(jiān)督是一種重大過失,使得信息匯報機制無從適用,對此導致的損害后果顯然要負擔責任。該案的裁判立場得到衡平法院的廣泛接受。

應當認為,在代理權不斷下沉、董事會形式化特點突出、外部董事席卷的治理實踐中,美國法的董事監(jiān)督義務是合理而必要的,這有利于將董事從具體經(jīng)營事務中解放出來,從而在治理框架內(nèi)的角色扮演中專于公司宏觀戰(zhàn)略設計及對經(jīng)理層等執(zhí)行團隊的績效評價上[21],以推升專業(yè)分工機制下的公司治理效率。人工智能介入公司后的治理場景改變實際上與代理權下沉的影響是一致的,這主要是因為:第一,人工智能介入董事會在很大程度上減輕了董事對具體運營決策及其他瑣細事務的工作量,使其得以將主要的工作投放在公司長遠戰(zhàn)略的設計上,這與董事會下放執(zhí)行權限不謀而合;第二,董事依靠人工智能進行決策實際上也是釋放權力的一種形式,其主要目的在于決策系統(tǒng)的功能改進,這與董事將部分治理權限交由經(jīng)理層執(zhí)行屬于同種類型。據(jù)此,在這一條件下,承認人工智能介入背景下的董事監(jiān)督義務將有機會修正其逃避義務的傾向,因為這使其在減輕責任的前提下抬升了監(jiān)督公司事務運行的要求。

董事監(jiān)督義務的設定在中國法上具有必要性和可能性。首先,我國公司法上負責監(jiān)督的機制主要是監(jiān)事會和股份公司中可能存在的獨立董事,遭詬病的是,兩者在實踐中往往發(fā)生職能沖突,由于存在監(jiān)督義務的重疊,為了減少自身的責任,兩方都不愿意積極履行監(jiān)督義務,以致一邊耗費合規(guī)成本,一邊無法對頻發(fā)的運營問題產(chǎn)生有效規(guī)制。當人工智能介入后,在監(jiān)督機制不彰的情況下,有可能會影響公司治理的穩(wěn)定性,所以有必要確立董事監(jiān)督義務。由董事承擔監(jiān)督義務的好處在于,董事因經(jīng)營管理行為始終處于治理的金字塔頂尖,對公司內(nèi)部的組織架構更為熟悉,監(jiān)督起來更為便利;而在追責過程中,董事必須證明其履職的具體行為標準,私人執(zhí)法機制展開也更為暢通。除了必要性之外,設定董事監(jiān)督義務的可能性也至為明顯。因為,我國對于信義義務制度雖有明文規(guī)范和學理論證,但在司法裁判的適用上始終處于“半沉睡”狀態(tài),特別是注意義務條款經(jīng)常淪落為宣示性的規(guī)定而不具備實踐品格[22]。以人工智能介入為契機,引入董事監(jiān)督義務,并在其原則性范例下具體列示行為準則,不僅擴充了董事信義義務內(nèi)涵,也便于激活信義義務的司法適用。

(2) 合規(guī)義務之具體化

在當前普遍強調(diào)公司合規(guī)建設的環(huán)境下,人工智能介入實際上催生了董事會合規(guī)義務。按照Caremark案的理解,監(jiān)督義務要求董事在注意到發(fā)生或可能發(fā)生不當行為時,有責任采取行動,但事后責任的調(diào)查取決于提交給董事會的信息質量,也就是說董事須確保合規(guī)層面的信息得以流動[23]。易言之,董事合規(guī)義務是監(jiān)督義務的具體化,面對人工智能技術介入,從董事會層面建構合規(guī)制度也是公司多元化合規(guī)體系形塑的應有之義。關于人工智能背景下的董事會合規(guī)義務,主要從組織結構設計、成員資格要求兩方面展開。

第一,組織結構設計上應補強現(xiàn)有董事會的短板,特別是技術監(jiān)督上的不足。公司董事會成員一般來源于不同的知識背景,但總體上以商業(yè)、財會、法律等為主,董事會框架內(nèi),專業(yè)委員會治理是突出特點,一般公司中有三個委員會:提名、薪酬和審計。每個委員會都處理特定領域管理上的利益沖突。法律、審計雖然與合規(guī)有關,但是人工智能介入條件下,對于人工智能的技術細節(jié)和監(jiān)督顯然鞭長莫及,而將有些合規(guī)業(yè)務納入審計委員會職能中也無法產(chǎn)生預期效用[24]。在數(shù)據(jù)治理的宏觀背景下,對于有關技術和分析的專門知識變得越來越重要。所以,至少在規(guī)模較大的股份有限公司董事會中,技術或合規(guī)委員會應當成為今后設計上重點考慮的內(nèi)容。技術委員會功能在于監(jiān)管智能機器無監(jiān)督學習的計算結果是否違反一定的操作規(guī)程或標準,其目的在于補強董事會相關領域知識的缺陷,防止董事會成員形成結構性偏見而無法妥當識別機器造成的錯漏。比較法上,如截至2016年,美國的董事會中設置技術委員會的數(shù)量已達到6%[25],這一比例將會隨著人工智能引入而繼續(xù)增長。

第二,成員資格要求上應重視技術背景的專業(yè)人士入駐董事會。專業(yè)治理是董事會的鮮明特征,人工智能介入董事會后,對董事自身提出的知識與能力要求也會提上議程。法律應當為公司使用人工智能顧問情況下董事會的成員資格要求設置缺省性條款,要求一定比例或數(shù)量的董事應當具備特定人工智能知識,除非公司已經(jīng)通過其他機制如尋求第三方技術監(jiān)管機構協(xié)助。對于是否具備特定人工智能知識的勝任資格,應當由監(jiān)管部門通過設置智能算法考試的方式予以確認,且在通過考試后進行持續(xù)性的督導,以保證該董事專注于技術監(jiān)督從而可以持續(xù)勝任。在小規(guī)模的有限責任公司中,如果缺乏設立技術委員會的條件,則輔以技術背景董事的要求即可實現(xiàn)同等目的。證監(jiān)會在2018年發(fā)布的新《上市公司治理準則》第25條規(guī)定“鼓勵董事成員的多元化”,可以視為對我國董事會包容技術專才并賦之以決策職責提供了規(guī)范性指引。

2. 人工智能語境下責任認定與分配的重釋

(1) 責任認定的客觀化

人工智能語境下,確認董事的過失責任將更傾向于客觀標準為宜。在追究董事違反注意義務的責任時對理性人標準的界定并不好判斷,但是監(jiān)督義務概念的引入將有機會使得過錯認定客觀化,這涉及到對監(jiān)督義務性質的界定。美國公司法裁判上對于董事監(jiān)督義務性質的定位存有分歧。在Graham案中,特拉華州最高法院認為,董事監(jiān)督義務屬于注意義務之一環(huán),其適用前提是企業(yè)內(nèi)部的不法行為有被察覺的可能性,在董事沒有理由懷疑存在不法行為的情況下,沒有義務去設置公司內(nèi)部控制制度。法官在Caremark案中也延續(xù)了將監(jiān)督義務定位于注意義務之一的理念,Allen法官強調(diào),董事有義務建立一個有效的合規(guī)制度,這是基于注意義務的要求[26]。然而,在2003年的Guttman案中,法院的立場有所轉變,認為董事善意建立并有效、持續(xù)地維持公司內(nèi)控監(jiān)督系統(tǒng)才能盡到監(jiān)督義務的基本要求,也就是說,因怠于監(jiān)督而生的損害賠償責任,應建立在違反善意的要求之上,而這是違反忠實義務的前提條件。2006年的Stone案也進一步鞏固了這一認識,認為監(jiān)督義務之違反屬于善意行為的欠缺,董事在面對已知行為義務而未采取行動時,將違反忠實義務。將監(jiān)督義務從注意義務內(nèi)容轉為忠實義務成分,實際上強調(diào)對董事善意的要求,且出于對其行為認定客觀化的便利性考慮。

結合其性質界定的分歧可知,對監(jiān)督義務違反采取綜合要素認定是比較妥當?shù)?也就是一方面強調(diào)董事對建立合規(guī)系統(tǒng)的注意要求,另一方面也重視董事善意履職的行為標準。我國采取的立場應當?shù)O(jiān)督義務的性質歸屬,而以更務實的精神注重監(jiān)督義務違反的查證便利性,盡量以行為而非主觀意識為義務違反的標準,這與轉向忠實義務認定有立場上的相似性,但不宜將其列為忠實義務內(nèi)容,當然也與注意義務相區(qū)分,而是作為一項以善意為前提的獨立義務。這對于我國董事義務更新具有重要參考價值,原因在于:首先,忠實義務的具體違反樣態(tài)相對固定,將監(jiān)督義務違反類型納入其中會不當?shù)貨_擊忠實義務認定的穩(wěn)定性;其次,注意義務本身在我國激活不多,加入監(jiān)督義務使得注意義務成分復雜、認定困難;最后,我國并無美國豐富的案例演變實踐,完全可以將監(jiān)督義務作為信義義務具體化內(nèi)容之一種,以行為標準予以確認。人工智能介入后呼喚合規(guī)體系的完善,妥當?shù)囊?guī)劃應是對合規(guī)義務的類型化進行更細致的規(guī)定,如果未能達到合規(guī)義務履行的必要行為條件,即可認為其違反監(jiān)督義務從而需為此擔責。

(2) 責任主體的厘定

為消除董事會在人工智能輔助強化決策過程中產(chǎn)生的最終責任承擔主體的模糊性,防止公司承擔兜底性的不利損害,對責任主體應予清晰化。這需要從人工智能介入的業(yè)務模式上展開討論。

在董事會購置獨立人工智能顧問系統(tǒng)的業(yè)務模式下,對于責任主體的認定應具體化為以下情形:第一,當董事會在借助人工智能決策過程中,善意地履行了董事監(jiān)督義務,采取了謹慎的措施控制決策風險,可確定其對最終的不利損害不具備可歸責性,此外,對于生產(chǎn)者/銷售者而言,其技術符合《產(chǎn)品質量法》相關規(guī)定,特別是投入流通時不存在該法第46條所強調(diào)的不合理風險,且以彼時的技術標準無法發(fā)現(xiàn)設計缺陷從而使用發(fā)展風險抗辯原則,那么,最終的損害后果應由公司按照正常商業(yè)風險承擔。第二,如果經(jīng)過第三方專業(yè)技術機構鑒定發(fā)現(xiàn)不利后果乃由機器本身的計算故障所產(chǎn)生,且該故障非可由董事監(jiān)督義務所能排除,在這種條件下,公司可獲得對人工智能機器生產(chǎn)者/銷售者進行追償?shù)臋嗬?。第?如果是因董事會成員未能善意地履行監(jiān)督職責,產(chǎn)生了最終的損害后果,且人工智能機器并無設計上的故障,董事應當對此結果承擔賠償責任。至于董事承擔責任的形態(tài)是僅由技術背景董事?lián)熯€是包括與其他非技術背景董事承擔連帶責任,這一問題與待決議案對智能機器的依賴程度、技術董事的解釋必要性與清晰度等等因素有關,應根據(jù)特定案情加以厘定,不應設定“一刀切”的規(guī)范基準,否則將破壞商事法靈活調(diào)整復雜商事關系的功能。

在第三方提供外包治理意見服務的模式下,雖然智能機器輸出治理意見,但可將其比照為電子代理人的行為,將其行為歸諸于使用者[5]。這里的使用者應當是運營者而非服務接受者,因為該業(yè)務的具體運作是先由董事會提供需求,然后由運營者將該需求轉化為智能機器所能識別的代碼加以運算,操控機器的是運營者而非董事會。在該模式下,首先,如果董事會對于智能機器輸出的治理結果進行了技術層面的審查,如復盤和檢測了記錄治理意見計算過程的信息載體,可視為已經(jīng)完成監(jiān)督義務,對于最后的商業(yè)風險,如果不存在外包機構的技術缺陷,公司應承受其風險。其次,如果損害確因技術本身未臻成熟或運營者出于為相類似企業(yè)提供差異化服務以謀取算法歧視下的不當利益所致,毫無疑問應當由運營者為此承擔責任。最后,對于董事承擔責任的情形,仍應限定在未能妥善履行監(jiān)督義務、盲信外包公司治理意見所導致的損害,此時仍能為商業(yè)判斷規(guī)則留下適用空間,保持法律規(guī)則的穩(wěn)定性和適應性。

四、 結 語

人工智能介入董事會改變了決策所依據(jù)的生態(tài)環(huán)境,進而對義務體系與責任機制產(chǎn)生沖擊。以忠實義務和注意義務為核心的傳統(tǒng)信義義務及責任追究未能適切地防范智能機器風險,以董事監(jiān)督義務充實信義義務內(nèi)容并通過客觀化的行為違反責任加強追責,將有利于鎖定智能顧問機器使用的風險并維護人類在決策上的優(yōu)先權。人工智能算法在董事會決策過程中的運用,一方面具備改善傳統(tǒng)信息匯集工具的渠道效能,另一方面則作為一種新穎的決策機制本身構成對傳統(tǒng)模式的突破,這將可能對公司治理結構特別是股東會與董事會之間的關系構造產(chǎn)生深遠影響。未雨綢繆、提前設定義務與責任規(guī)則,可以防止智能技術提前到來產(chǎn)生的系統(tǒng)性風險。

猜你喜歡
董事董事會義務
中國機械工程雜志社第四屆董事會
我國獨立董事制度發(fā)展現(xiàn)狀研究
幸福的人,有一項獨特的義務
三十載義務普法情
我國上市公司獨立董事制度存在的缺陷與改進建議
獨立董事制度在公司治理中的作用研究
跟蹤導練(一)(4)
“良知”的義務
拉贊助