談到人工智能模型在日常使用中的應(yīng)用,對于萬一發(fā)生某種事故該由誰來負責有一些爭論。例如,特斯拉在過去與自動駕駛汽車有關(guān)的道路事故中反復(fù)強調(diào),它在一些汽車中提供的能力是一種輔助技術(shù),目的是幫助司機,而不是取代他們。然而,現(xiàn)在看來,歐盟(EU)正在使起訴人工智能模型制造商的損害賠償變得更加容易。
路透社報道,歐盟委員會(EC)將于周三公布AI責任指令,以協(xié)助厘清涉及AI模型和無人機時的責任。實質(zhì)上,該指令將使受害者更容易證明在與這些技術(shù)打交道或受其影響時對其生命、健康或財產(chǎn)的傷害,這也適用于在招聘過程中被人工智能非法歧視的人。
基本上,原告的舉證責任將通過一個稱為"因果關(guān)系推定"的過程而減少。在這一點上,原告將被要求證明,由于制造商或產(chǎn)品使用者沒有遵守某些要求,他們被由這些技術(shù)驅(qū)動的產(chǎn)品所傷害。如果這一索賠與人工智能技術(shù)有關(guān),原告就可以在法庭上尋求賠償。
此外,原告還將能夠要求"獲取證據(jù)的權(quán)利",通過這一權(quán)利,公司將被要求提供有關(guān)"高風險人工智能系統(tǒng)"的信息,并確定負有責任的人員。
這項指令不僅適用于人工智能產(chǎn)品用戶的過失,而且如果制造商發(fā)布的軟件更新使產(chǎn)品不安全,或者沒有及時修復(fù)網(wǎng)絡(luò)安全問題,也將適用于制造商。
雖然該指令在紙面上聽起來對被告相當嚴格,但它只有在得到歐盟國家和立法者的批準后才會成為法律。