研究探索了使用生成式人工智能進行支付應用調查的潛力和陷阱
本文包含AI輔助創作內容
日本銀行貨幣與經濟研究所(IMES)與韓國銀行合作發布的壹項新研究探討了使用生成式人工智能(GenAI)模擬支付應用用戶調查的可行性與局限性。這項題為《支付應用調查的生成式AI:AI對隱私與技術的看法》的討論論文,以Brits和Jonker(2023)在荷蘭進行的實際調查為基準,評估了ChatGPT在模擬用戶對隱私和技術收益認知方面的表現。
研究人員通過設計具有不同人口統計特征(如年齡、性別、用戶身份)的“生成代理”,並采用角色、任務、格式(RTF)的提示方法,模擬了對移動支付應用收益和風險問題的回答。
研究結果表明,生成式AI能夠復現真實人類調查中的幾個關鍵模式。例如,被歸類為更關註隱私的代理往往對支付應用評價更低,感知到的風險更高,這與隱私計算理論壹致。更重要的是,ChatGPT無需明確指令,就能自然反映出用戶和非用戶之間的顯著差異:用戶認為收益更高、風險更低。
然而,該研究也揭示了生成式AI作為調查工具的明顯局限性。最突出的是,AI生成回答的變異度(以標準差衡量)遠低於人類調查,這意味著它難以捕捉人類觀點的全範圍,可能忽略少數派意見。此外,研究觀察到明顯的偏差:極大比例的生成代理被歸類為“隱私基本教義派”,顯示出對隱私問題的高度敏感,這與實際人群中的分布不符。即使通過調整“溫度”參數或增加更詳細的人物屬性(如收入、教育水平)來試圖增加多樣性,效果也十分有限。
研究人員總結認為,生成式AI有潛力作為輔助工具,用於調查前期的模擬、問題構思和設計,提供成本和時間效率。但其固有的回答變異度低和存在潛在偏差的局限性,使其目前無法完全替代真實人類受訪者。研究者特別提醒政策制定者,若完全依賴AI生成的數據,可能因無法充分代表多樣化(尤其是邊緣)群體的觀點而得出誤導性結論。







請先 登錄後發表評論 ~