AI工具虽好用,受访青年更盼“放心用”

AI工具虽好用,受访青年更盼“放心用” 新闻

数据来源于中国青年报・中青校媒相关问卷调查。图片由AI生成

近日,影视飓风工作室创始人潘天鸿(Tim)发布了一条视频,展示字节跳动发布的AI视频生成模型“Seedance2.0”的效果,在感慨该模型的强大功能后,他又特别提到一个“比较恐怖”的意外发现――当他把自己的照片传到“Seedance2.0”上,模型生成的视频中,不仅有他活灵活现的面孔,这张面孔发出的声音,也和他本人的一模一样。这意味着“Seedance2.0”大量使用账号“影视飓风”发布的视频进行训练。潘天鸿是否曾授权相关企业使用这些视频?“平台的用户协议里可能隐藏了类似的授权条款,但我个人没有收过钱,也没有被联系过授权。也许他们在法理上是合规的,但是,这有点恐怖,对吧?”潘天鸿在视频中说。

尽管“Seedance2.0”很快紧急叫停了真人人脸上传功能,但就读于湖北一所高校的张宇菁依然有所担忧。社交媒体时代,人们常常将自己的影像、声音等上传到网上。“这种数据一旦泄露或被滥用,很容易引发诈骗、信息骚扰,作为普通人,我们毫无还手之力。”他感到使用AI的安全感正在被消磨。

随着“ChatGPT”“DeepSeek”“Sora”“Seedance”等模型一次又一次刷新人们对AI的认识,这些工具也正在愈发深入地涌入普通人的日常生活。近日,中国青年报・中青校媒面向以大学生为主的青年发起AI工具使用相关问卷调查,共回收有效问卷1390份。调查结果显示,受访者最常用的AI工具是语言生成类(77.12%),此外还有图像生成类(65.32%)、音视频处理类(30.86%)、办公学习类(27.84%)等。受访者担心目前AI可能引起的风险,有产生“AI幻觉”或虚假信息,误导用户(58.13%);可能侵犯肖像权、著作权等个人权益(52.52%);AI生成内容可能被用于诈骗,威胁财产安全(44.39%);AI生成内容可能受商业利益影响,缺乏客观性(27.12%),等等。

近六成受访者担心与AI对话被用于精准用户画像

张宇菁日常使用频率最高的AI是豆包,几乎遇到任何问题都会第一时间向其咨询,但一次意外的搜索,让他对个人数据安全产生了强烈的不安。“我在豆包里搜我的名字和学校,它直接弹出了一整段我的各类信息汇总,我瞬间觉得后背发凉。”张宇菁说,AI的训练依赖海量数据,可普通用户对于自己的信息如何被收集、使用,完全没有知情权和控制权。

张宇菁提到的平台用户信息收集,也让毕业于武汉工程大学的张鸿博感到无奈。“如今各类平台动辄要求用户同意全部条款才能使用,不同意则无法注册,这种‘霸王条款’让用户对隐私保护毫无选择权。”张鸿博的母亲喜欢使用短视频平台的一键生成视频功能,把家人的照片拼接起来,配上动画、文字和音乐,分享生活点滴。但每次上传照片,母亲都会格外担心:“这些面部信息传上去,万一被泄露了怎么办?”张鸿博也担心,如今AI声音合成、真人图像生成的技术日趋成熟,一旦个人信息泄露,被不法分子利用,进行诈骗,后果不堪设想。张鸿博还发现,如今抖音、视频号上充斥着大量AI生成的内容,有些内容看似专业,实则是虚假信息,一些年轻人都难以辨别,家中长辈更是频频中招,常常将AI生成的虚假科普视频转发到家庭群。

北京一所高校的学生李奥(化名)则遇到了个人地址被AI获取的情况。当他在与AI的对话框里输入“某补贴怎么领取”,几秒后,AI回答:“结合您当前的位置湖北省荆门市……”李奥盯着那行字,心里觉得不太对劲。“那天我用的是网页版。手机App要获取地址权限前,会提前弹窗询问,但在网页端使用,好像没有很明显的提示。”后来他就此追问AI,AI解释说地址是系统信息授权得来的,并且保证不会泄露用户个人隐私。“但那种被读取信息的感觉,还是不太舒服。”李奥说。

今年50岁的辽宁大连市民刘明英热衷于网购,也很喜欢使用AI。但她发现,自己和同事聊天提到的喜好,比如想买某种面包、某种服饰,第二天手机上就会出现相关的推荐内容,“感觉自己的谈话被窃听了,连消费喜好、生活日常都藏不住”。为了避免这种情况,如今她和家人、朋友聊天时,会特意把手机放到其他房间。

中青校媒调查显示,受访者担心与AI的对话被用于精准的用户画像,并进行精准营销(57.70%);AI工具过度收集手机号、位置等私人信息(48.78%);一些公司使用自己的社交媒体信息进行训练(33.96%);等等。

受访者担心被AI生成信息误导或欺骗

李奥感到,这几年AI已经有了明显的进步,甚至可以深度思考、解决专业性较强的问题。李奥用AI最多的时候是做课设。他的作业需要处理的数据量大、杂、乱,需要好几步预处理。现阶段的AI就能很好地帮助提升效率。但他也发现了AI仍存在局限,例如常常生成误导性信息。

“有一次,AI表示,它给出的代码会对数据进行五步清洗,我逐行审查,发现这些代码真正完成的只有两步。”他解释说,“可能是因为对话上下文太长了,它自己记串了,产生了幻觉。每次到这个时候,就得自己人工再核查一遍,从头再过一遍代码。”

云南一所高校的王馨仪在学校校园媒体运营微信公众号,写文案是家常便饭,想不到合适的文案时,她会求助AI。AI输出的内容质量很高,语句很优美,看起来完美无缺。在文案基本写好,准备推进审核时,她让AI把引用内容的出处也列出来。当她照着这些出处去网上逐一核对,却傻了眼:“根本找不到出处,作者名字都是虚构的。如果我当时没仔细核实,盲目地用了它给的信息和来源,那发表的内容就是假的。”