塔斯娱乐资讯网

谁给了你把AI当免死金牌的错觉?工具再锋利,砍到自己的脚指头照样血肉模糊。违规玩

谁给了你把AI当免死金牌的错觉?工具再锋利,砍到自己的脚指头照样血肉模糊。违规玩火,终究引火烧身。
掩耳盗铃的把戏,早晚要穿帮。有人妄图走捷径,结果弄得满地鸡毛。2024年《细胞与发育生物学前沿》撤下一篇论文,研究者拿Midjourney画科研图,图里塞满无意义的标签,这简直是拿学术当儿戏。这还不算最离谱的。2025年施普林格忍痛撤回一整本机器学习专著,翻开一看,里头引用的文献压根就不存在。AI在那一本正经地胡说八道,作者连看都没看就往上交。更荒唐的事情发生在新闻圈。2024年到2025年间国内某些MCN机构把AI当成了印钞机。抓个热点丢给机器改写,一天狂薅4000到7000篇垃圾稿。“西安发生爆炸”这种吓人的谣言就这么造出来了,一篇最高能捞700块钱。这钱赚得烫手不烫手?云南大理一网民更绝,直接用AI合成“多车相撞交警不作为”的假视频发网上。造谣张嘴就来,代价就是拘留所里蹲着反省。顶流明星在澳门输掉10亿的八卦同样是AI的杰作。流量是吸到了,非法经营罪的判决书也送到了手里。
聪明反被聪明误,职场上翻车的案例比比皆是。你以为把麻烦事扔给AI就万事大吉?三星员工在2023年短短20天内就给全公司上了一堂反面教材课。有人把半导体测量代码贴进去找bug,有人把产品良率代码丢进去求优化,还有人把会议录音扔进去做摘要。底裤都被人看光了,这叫什么事儿?一份针对上万名员工的调查报告更是让人惊掉下巴,LayerX发现大约15%的打工人用生成式AI,这帮人里头有25%直接把公司数据喂了进去,43%是内部业务数据,31%是源代码,12%是个人身份信息。这哪是用工具,这简直是给对手递刀子。学校里同样闹出笑话。2024年明尼苏达大学博士生Haishan Yang因综合考试答案跟ChatGPT高度相似被直接开除。人家一口咬定没用,转头就把学校告了,说教授用AI改提示词来陷害他。作弊没抓到现行,这罗生门打得真是难看。媒体行业也不消停,2023年G/O媒体旗下用“Gizmodo Bot”署名发文章,惹得记者工会跳脚大骂,砸人饭碗的事儿干得理直气壮。
玩火自焚,越过了红线,等待你的就是铁窗泪。把AI用在歪门邪道上,性质彻底变了。2023年美国平等就业机会委员会直接把iTutorGroup告上法庭,这家的AI招聘软件玩得一手好歧视,55岁以上女性、58岁以上男性的简历直接被打低分甚至自动拒绝。最终乖乖掏出36.5万美元和解,成了全美头一遭。英国那边也没闲着,监管机构查出AI简历筛选工具对女性和少数族裔充满偏见。大选年更是乱成一锅粥。2024年美国新罕布什尔州初选,有人用AI捏造拜登声音打自动电话,劝选民别去投票。联邦通信委员会直接甩出600万美元的天价罚单,州总检察长一纸诉状追究刑事责任。印度2024年大选同样被Deepfake搞得乌烟瘴气。最让人不齿的行径藏在暗处。英国小伙Hugh Nelson利用AI生成儿童性虐待图像,2023年判决下来,直接喜提18年监禁外加6年延长刑期。英国法律明文规定,未经同意搞深度伪造亲密影像,最高能关2年。技术成了作恶的帮凶,法律绝不手软。
妄图靠AI空手套白狼?门儿都没有。2023年到2025年期间Thaler跟Perlmutter打了一场旷日持久的官司,试图给纯AI生成的图像要版权。美国版权局和法院把头摇得像拨浪鼓,没有人类参与,AI画得再好看也是无主之物。美国版权局的态度很明确,作品里人类创作的部分能保护,AI生成的部分必须老老实实拆分披露。
水能载舟亦能覆舟。别把AI当成脱缰的野马,守住规矩的缰绳,才是保全自己的护身符。