GPT 5发布前夜:美国大选成最大变数!

编译丨诺亚


今年是美国大选年,两党的对决仿佛“昨日再现”,特朗普和拜登再次站在了擂台之上。选举效应从来牵连甚广,而蝴蝶的翅膀已然影响到科技圈。

          

随着总选举的临近,众多科技企业在推出AI系统和大模型时都“拘谨”了不少。这种保守态度并不出人意料,万一有人蓄意利用这些技术进行错误信息传播,甚至对选举流程或成果产生影响,那么必会招致政府的严格监管。

          

OpenAI首席技术官Mira Murati最近证实,大选是影响GPT-5发布计划的一个重要因素。她明确表示,公司不会推出任何可能对全球选举产生不确定影响的产品,并强调了这一点的重要性。

          

此外,该公司的语音合成技术也因其可能误导选民的风险而成为焦点。这无疑让情况雪上加霜。“我们认识到,生成与人们声音相似的语音存在严重风险,尤其是在选举年份,这一点尤为重要。”

          

早在2022年,一条乌克兰总统泽连斯基的“视频”被广泛传播,在视频中,泽连斯基呼吁乌克兰士兵放下武器。从视频来看,泽连斯基的脸显得很不自然,这实际是一款用Deepfake做的换头“视频”。

          

无独有偶。今年2月,还有美国民主党内部人士承认曾使用AI模仿总统拜登向选民拨打电话,以阻碍新罕布什尔州的初选。

  

图源:央视网

          

最近,埃隆·马斯克的AI聊天机器人Grok错误地报道了“莫迪总理被驱逐出印度政府”,引发了传播错误信息的争议。这样的例子不胜枚举,只是众多类似情况中的一小部分。


不监管是问题,过度监管也是问题

 

尽管滥用现象泛滥,但监管进展却慢如蜗牛。

          

斯坦福大学以人为本AI研究所高级研究员埃里克·布林约尔松近日警告称,如果不加以缓解,过度监管人工智能可能成为问题。

          

他在接受CNBC采访时表示:“明智的监管是有益的,甚至可以加快技术的采用并保护人们免受伤害。然而,同时,过度监管可能有害,并减缓技术的采纳。”

          

然而,现实可能是我们正急于走向过度监管,这可能会使行业参与者合规的梦想变得遥不可及。


AI监管的现实

   

上周,众议员亚当·希夫向美国众议院提交了一项法案,要求企业在训练人工智能系统时报告任何使用版权材料的情况。

              

希夫在介绍该法案时说:“人工智能具有颠覆经济、政治体系和日常生活的潜力。我们必须在人工智能的巨大潜力与制定伦理准则和保护措施的迫切需要之间取得平衡。”

          

他们确实做到了平衡。希夫的法案并非针对人工智能的第一项监管措施,也肯定不是最后一项。仅去年一年,美国政府内部就围绕人工智能监管展开了大量活动。

          

虽然目前尚未出台全面的法案,各州立法机构迅速提出并通过了与人工智能相关的法案,已有超过18个州制定了相关法规,2023年共提出超过400项人工智能法案。

          

同时,联邦层面也已出台多项措施,包括人工智能权利法案蓝图和关于国家范围内使用人工智能的行政命令。

          

认为人工智能难以监管的情绪似乎促使所有人都跃跃欲试。

          

然而,目标始终是制定一项联邦法律,而非多部州级法规。

          

加利福尼亚州参议员斯科特·维纳表示:“我希望能有一项统一的联邦法律,有效解决人工智能安全问题。国会尚未通过这样的法律。国会甚至远未接近通过这样的法律。”

          

缺乏联邦法律可能会对整个行业产生严重影响,因为企业在努力适应多部法规的同时,还要面对国际监管。因此,无论是州政府还是企业自身,都对这样的法律有着强烈需求。


未来的人工智能监管

 

虽然可能性很大,但是否会发生还很难说。随着选举临近,民主党和共和党这两党在人工智能相关问题上却保持了相似的立场。

          

民主党承诺“动员公共和私营部门确保新产品和新发现受到法律、伦理和公民自由保护的约束”。

          

同样,共和党也表达了对人工智能监管的支持,尽管两党在应以何种标准进行监管的问题上存在分歧。研究表明,尽管两党均支持人工智能监管,但民主党尤为关注伦理问题,而共和党则关心人工智能能力与数据权益。

          

两位总统候选人过去几年来也都积极回应了该行业日益增长的重要性。在任期内,共和党候选人特朗普于2020年签署了一份行政命令,推动行业内创新。   

          

随后不久,国家人工智能倡议办公室成立。

          

同样,拜登政府去年也发布了确保人工智能“安全、可靠和可信”的行政命令。该命令规定了使用人工智能的安全标准。

          

然而,这些都是行政命令。两党均未承诺实施一套既易于执行又易于理解的政策,至今也未见有关全面政策的讨论。

          

尽管普遍认为人工智能难以监管,但持续不作为可能会对整个生态体系产生严重影响。

          

随着行业迎来重大更新,如OpenAI的GPT-5,新一届政府如何选择监管,对于这个行业,是成就还是摧毁,可能就在一念之间。


防不胜防,如何警惕

 

由于公众人物的影像、声音和图像资料公开广泛可得,为AI的训练提供了丰富的资源,这使得名人成为AI造假的“重灾区”。

          

行业专家提到,利用深度伪造技术生成的内容在视觉和听觉上极为逼真,仅凭肉眼或常规技术手段很难区分真伪。攻击者能够利用技术手段掩盖深度伪造的痕迹,使其难以被察觉。

          

目前,互联网上充斥着大量用于训练深度学习模型的图片和视频数据,这些数据同样被深度伪造技术所利用。“数据集越庞大,模型的精准度越高,伪造内容与真实人物的相似度也就越高。”

          

在明显标识之外,还可以从技术层面设计隐性标识,这样在追踪和溯源时,也能通过技术手段识别出内容的来源或合成途径。如果能明确来源和合成路径,那么风险自然变得更加可控。

          

参考链接:

https://analyticsindiamag.com/gpt-5-likely-to-be-released-after-the-us-elections/

https://news.cctv.com/2024/01/31/ARTIF8yjxViHGFxsuWPleO20240131.shtml


——好文推荐——
谷歌出手整顿大模型“健忘症”!反馈注意力机制帮你“更新”上下文,大模型无限记忆力时代将至这款Linux发版发起AI禁令!生成代码质量堪忧!阿里也被大模型幻觉愚弄了!网友:人比生产力更重要!

              

相关推荐

  • React 案例:sidebar(侧边栏)和 modal(弹出层)实例
  • 阿里P9的50个思考
  • Redis 如何做消息队列?
  • C++ 11 接受度最广!2024 年 C++ 开发者年度调查报告最新出炉
  • 2024全球机器学习技术大会-上海站日程发布,附参会指南!
  • 突破!颜宁,发国产神刊!
  • Llama 3突然来袭!开源社区再次沸腾:GPT-4级别模型可以自由访问的时代到来
  • [开源]MIT开源协议,一款免费的运行时界面创建API接口的项目
  • 最强开源大模型Llama 3来了!4000亿参数狙击GPT-4,训练数据达Llama 2七倍
  • 2024中国生成式AI企业TOP50揭晓!AI新质生产力创新先锋
  • 54位大咖演讲精华!中国生成式AI大会圆满收官,TOP50企业榜单揭晓
  • 这两个BI可视化软件如何选择?亲测推荐
  • React案例:一个常见的响应式网站导航
  • Vue 的响应式机制就是个“坑”?
  • Suno AI:音乐生成迎来MidJourney时刻,Suno能否挑战Spotify?
  • 每日prompt:滑冰的动漫角色
  • Meta 发布 Llama 3 大语言模型,并上线了meta.ai可在线体验
  • 一周变现300W,分享我的小红书的10倍投放策略
  • 提升用户体验的UUID设计策略
  • 面试题:4G内存电脑如何快速处理完 30 亿条数据?