
生成式人工智能用户的感知风险与监管支持研究
摘要
随着人工智能技术的不断进步,生成式人工智能(AIGC)已成为社会创新发展和数字化转型的关键要素,广泛应用于新闻、广告、音乐创作、绘画及教育等多个领域。鉴于此本文引入了感知风险,信任以及监管支持三个变量,构建了用户对于AIGC感知风险与监管支持的模型。通过问卷调查收集数据,并运用结构方程模型,结合SPSS与AMOS软件进行实证分析。研究发现,受访者对生成式人工智能潜在风险的感知越高,越倾向于支持更严格的监管措施,感知风险与对AI系统的信任呈显著负向关系,即风险感知增强会导致信任度下降,进一步发现,对AI的信任度越低,受访者越需要新规制有效控制风险,从而更支持监管,本研究将风险社会理论与技术规制框架有机结合,丰富了生成式AI的社会影响研究。
如何引用
参考
田耕,刘振江.生成式人工智能应用诱发的网络意识形态风险及其消解策略[J/OL].华北水利水电大学报(社会科学版),1-7[2025-04-21].
张宇青,刘庆发,赵现军.生成式人工智能参与科研:风险冲击、国际借鉴与中国应对[J/OL].西南交通大学学报(社会科学版),1-14[2025-04-27].
胡弘弘,王惠民.人工智能治理的反身型转向:主要风险、全球模式与中国进路[J/OL].图书馆建设,1-15[2025-04-21].
乌尔里希·贝克.风险社会[M].何博闻,译.南京:译林出版社,2004;19-25.
寿志钢,张怡,郑伟华.组织间信任研究的整合模型[J].珞珈管理评论,2021,(02):141-155.
韩扬.地方金融监管与金融科技风险防范——评《地方金融监管理论与实践》[J].当代财经,2023,(11):2+155-157.
Dawes J.Five point vs.eleven point scales:Does it make a difference to data characteristics[J].Australasian Journal of Market Research,2002,10(1).12-15.
徐正.视频社区用户信息交互行为特征及影响因素研究[D].华东师范大学,2023.
版权
未提供许可协议