<optgroup id="1u01e"></optgroup>
    <ol id="1u01e"></ol>
    <ol id="1u01e"></ol>

    <span id="1u01e"></span>
    科普園地 新聞中心

    “共情”AI出現了,你會與之共情嗎

    馮杰

    2024年04月29日 08:57

    本報記者 張夢然
    科技日報

    當我們想到有情感的人工智能(AI)時,素材其實都來源于科幻作品,其中的情感式AI常常被描述成一個尋求人類同等愛意的孤獨者,或心思縝密的電子大腦。

    現在,一家由前“深度思維”(DeepMind)研究員擔任首席執行官的初創公司“Hume AI”,發布了一款標榜為“第一個具有情商的對話式AI”的共情語音接口(EVI),其能夠檢測到用戶53種不同的情緒。

    這是技術上的一個飛躍?!癏ume AI”公司已在一次B輪融資中籌集了5000萬美元,但隨之而來的,也有人們夾雜了恐懼的希冀。

    情感是AI的分水嶺嗎

    1997年,IBM的“深藍”打敗了國際象棋世界冠軍,其強大的計算力、純粹的暴力破解法震驚人類,也扭轉了AI研發的形勢。這種暴力破解法,后來就被用于機器學習,在看似具有無數種可能的對戰中輕松取勝。

    現在,各領域AI挑戰人類的消息不斷傳來,可能會給人這樣一種錯覺:計算機在認知能力方面已堪比人類。

    但兩者之間仍存在一條鴻溝。機器學習和自然語言專家格雷格·霍蘭德告訴人們,人腦可以解決AI前所未見的問題,而機器學習依然是針對特定問題而設計的。

    實際上,考慮AI的實現程度,需精準地用強AI和弱AI來劃分?!皬姟笔钦J為計算機不僅作為一種工具,其本身就是有思維的。這樣的機器有知覺,有自我意識。

    而“弱”則是認為不可能制造出真正進行推理并解決問題的機器,AI終究是沒有自主意識的工具。長期以來,主流研究也正是圍繞“工具”展開的,且成就可觀。

    但也因此,很多人將是否具有知覺或情感,當成了AI發展的分水嶺。

    AI需要理解情感嗎

    AI的下一個重要問題是理解和運用情感嗎?“Hume AI”的答案是肯定的。該公司的初衷即是要讓一個情感智能模型更好服務人類。

    該公司認為,情感智能包括從行為中推斷意圖和偏好的能力。這正是AI界面試圖實現的核心目標:推斷人們想要什么,然后去實現它。因此在某種意義上,情感智能才是AI界面最重要的功能。

    同樣作為聊天機器人,“Hume AI”與前輩們的區別在于,它專注于理解人類情感并作出合理反饋。它不僅能理解文本,還可使用語音對話接口,聽取人類的語調、音高、停頓等聲音特征來加深理解。

    這種理解可能非常細微,包括但不限于人們的快樂、悲傷、憤怒、害怕等“大情緒”,連更微妙、更多維的“小情緒”也在體察范圍內,譬如欽佩、崇拜、沉迷、諷刺、羞恥等,“Hume AI”在其網站上總共列出了53種不同的情緒。

    不得不說,像諷刺這種常常帶有反意的情感表達方式,連人類也不是每每都能察覺到的。

    你害怕有情感的AI嗎

    其實,人們害怕的不僅僅是能感知情感的AI。近年來,在AI迅猛發展的同時,反思和提醒的聲音一直存在。

    業界著名公眾人物的警告也有可能放大恐懼。如被評為“愛迪生的合法繼承人”的美國科學家庫茲韋爾推斷:在2045年,AI將超越人類大腦,促進社會劇烈轉型,跨入高智能機器時代。此外,“鋼鐵俠”埃隆·馬斯克也曾說過,AI或許很快會強大到能統治世界的地步。

    但普通人會覺得,在到達那一步之前,AI需要再多點什么——感知情感,可能就是缺失的那一環。

    “Hume AI”演示之后反響十分熱烈。但網絡上已開始有人擔心,用戶會以一種不健康的方式沉迷于它的“魅力”,同時滋生一些不良用途,譬如誘導、操縱、欺詐等。

    人類的情感并不只有正面情緒。當AI試著了解甚至學習人們的情感行為時,是否會主動或被動地利用其來達到某些目標?譬如誘導購買、養成惡習、心理折磨等。

    當缺少倫理限制與法律紅線時,被當作工具的,可能是人們自己的情感。


    ]]>

    2024年04月29日 16:57
    4030
    新語言模型學會讀取“另類文本” 久久www免费|日本入室强伦姧在线观看第65|国产在视频线在精品视频55|国产初高中生videos|草草草人人人操操操

    <optgroup id="1u01e"></optgroup>
    <ol id="1u01e"></ol>
    <ol id="1u01e"></ol>

    <span id="1u01e"></span>