藍 江
(南(nán)京大(dà)學 哲學系,江蘇 南(nán)京 210046)
摘要:是否應該賦予人工(gōng)智能和機器人與人類同等的道德主體的地位,成爲當代倫理學一(yī)個無法回避的問題。“電子人格”是否可以進入到與人類主體進行平等協商(shāng)和對話的公共理性當中(zhōng),以及我(wǒ)們是否将進入到一(yī)個人與智能主體共存的社會,仍然是一(yī)個懸而未決的問題。文章從人工(gōng)智能的波蘭尼悖論出發,以胡唐·阿西拉芳給出的機器人大(dà)戰爲案例,認爲在倫理學上,人工(gōng)智能和機器人隻能符合規範倫理學的要求,而無法處理開放(fàng)性情境中(zhōng)的實踐倫理問題。這樣,至少在今天,人工(gōng)智能還無法成爲與人類對等的倫理主體,而對于這個問題的讨論,會随着人工(gōng)智能的發展繼續深入下(xià)去(qù)。
關鍵詞:人工(gōng)智能;倫理挑戰;波蘭尼悖論;電子人格;人工(gōng)智能主體
作者簡介:藍江,南(nán)京大(dà)學哲學系教授,研究方向:當代歐洲馬克思主義,。