用人工智能分析約會對象,法律上有什么注意點?
本文作者:游云庭律師,題圖來自:視覺中國
?
英國《金融時報》記者Jemima Kelly (下稱“凱莉”) 最近撰文稱她被約會對象用ChatGPT做心理分析的遭遇:約會對象用AI對她發表的上千篇文章進行深度研究,并得出一份長達八頁的心理檔案。起初她并不介意對方這么做,后來想到其他人可能會利用它進行邪惡目的時,她感到毛骨悚然。今天就和大家聊聊,用人工智能給自己或其他人做分析時,有哪些法律上的注意點。
?
一、使用人工智能分析公開信息是不是合法?
如果使用人工智能分析的是公開信息的,不需要被分析人同意。我國《個人信息保護法》規定:處理個人信息應當取得個人同意,但是依照本法規定在合理的范圍內處理個人自行公開或者其他已經合法公開的個人信息,不需取得個人同意。
?
最高院網絡侵害人身權司法解釋也有規定:網絡用戶或者網絡服務提供者利用網絡公開自然人基因信息、病歷資料、健康檢查資料、犯罪記錄、家庭住址、私人活動等個人隱私和其他個人信息,造成他人損害,被侵權人請求其承擔侵權責任的,人民法院應予支持。但下列情形除外:(四)自然人自行在網絡上公開的信息或者其他已合法公開的個人信息;(五)以合法渠道獲取的個人信息。
?
二、未公開的個人信息不宜上傳至人工智能
未公開的個人信息涉及個人隱私,如果上傳到人工智能公司進行分析,可能會造成隱私泄露。雖然根據人工智能企業的隱私政策,他們理論上不會泄露用戶上傳的信息,但不排除其內部人員會閱讀到相關個人信息,或者根據合同向第三方,比如技術合作方提供,也會加大泄露風險。同時,在技術故障的情況下,不排除人工智能會在向其他用戶提供服務的時候,輸出收集到的用戶個人信息。所以未公開的個人信息,無論是自己的還是別人的信息,都不宜上傳。
?
三、審慎公開人工智能分析的結果
現實中的一些場景,可能會需要使用人工智能對個人信息進行分析,比如本文之初介紹的網上約會場景,一方在約會前利用網上的信息,找人工智能分析一下對方的性格,也算一個正當理由。
?
但人工智能的技術目前不太成熟,其分析可能會不夠準確,甚至是無中生有的幻覺、也可能因為訓練素材的原因存在歧視。這些問題都可能會出現在分析的結果中,如果約會者以此作為決策依據的,還只是對自己和對方的進一步發展關系有影響。但如果把分析結果公開的,則可能面臨名譽侵權風險。其實哪怕不涉及名譽侵權的,貿然把對他人評價發到網上,也不夠審慎。
?
我國《民法典》規定,民事主體享有名譽權。任何組織或者個人不得以侮辱、誹謗等方式侵害他人的名譽權。如果人工智能分析結果中有歧視性內容的,就可能涉嫌侮辱,如果分析結果中存在幻覺的,比如無中生有捏造了某些事實,就可能涉嫌誹謗。
?
如果發表了涉嫌侮辱或誹謗的內容被起訴的,需要行為人自己證明盡到了合理核實義務才能免責,根據《民法典》的規定,法院一般會審查內容來源的可信度、行為人是不是對明顯可能引發爭議的內容是否進行了必要的調查、內容是不是有時限性、內容與公序良俗的關聯性、受害人名譽受貶損的可能性、核實能力和核實成本等因素。如果不能證明履行了合理核實義務的,就可能涉嫌名譽侵權。
?
四、網上留個人信息要謹慎
人工智能技術日新月異,每個人被人工智能分析的機會都大大增加了,因為人工智能是獨立第三方,很多時候這種分析不一定都是讓人身心愉悅的。凱莉自己也用ChatGPT和谷歌的Gemini對自己做了分析,ChatGPT的分析還不錯:“凱莉給人的印象是求知欲強、思想獨立、有勇氣堅持自己的信念……這表明她非常自信、正直,”。“她對自己失態行為的幽默軼事表明她不自負,善于自嘲……從心理上講,人們可能會把凱莉描述成一個有良知的懷疑論者。”
?
但谷歌聊天機器人的分析就有點尖刻:她的“直率可能會被認為是對抗性的”,而且她很可能是一個壓力過大的完美主義者,這似乎是基于她在工作中的嚴謹和對細節的關注。另外,哪怕分析的內容是彩虹屁,比如筆者也找人工智能根據網上的文章分析過自己,但這種被置于放大鏡之下的分析應該是很多人不樂意見到的。
?
凱莉是一個記者,筆者寫了很多法律分析文章,在網上大量留痕是正常的,但普通人,如果不想被他人過于了解的,最好在網絡上,特別是各種公開的平臺,如微博、論壇、各種社交媒體平臺盡量少發帶有個人特征的信息,比如留手機號,郵箱號,個人照片等。如果沒有戒心的在網上留痕了,別有用心的人就可能根據這些信息順藤摸瓜關聯到個人,再利用人工智能工具對個人進行分析,比如詐騙集團為你定制殺豬盤的詐騙方案,這種情況估計是多數人都不愿意遇到的。
?
本文作者:游云庭,上海大邦律師事務所高級合伙人,知識產權律師。電話:8621-52134900,Email: [email protected],本文僅代表作者觀點。