2100年,2/3冰川可能消失******
图片来源:pixabay
美国科学家进行的一项研究对本世纪不同排放场景下的冰川质量损失进行了新的预测。相关研究1月5日发表于《科学》。
研究表明,根据当今减缓气候变化的努力,本世纪全球可能损失多达41%,或者至少26%的冰川。
这些预测将被汇总到全球温度变化场景中,补充有关气候变化的讨论内容,例如在《联合国气候变化框架公约》第27次缔约方大会(COP27)上进行的讨论。
卡内基·梅隆大学土木与环境工程助理教授David Rounce团队发现,如果继续投资化石燃料,在未来场景中,按质量计算超过40%的冰川将在本世纪内消失,而按照数量计算,超过80%的冰川可能会消失。在最好的低碳排放场景下,全球平均温度的上升相对于工业化前水平被限制在1.5℃以内,但按质量计算仍有超过25%的冰川质量将消失,按照数量计算则有近50%的冰川将消失。
按照冰川的标准,这些消失的冰川大多数都很小(不到1平方公里),但它们的消失会对当地的水文、旅游、防灾和文化价值产生负面影响。
该研究为区域冰川建模提供了更好的背景,Rounce希望这有助于促使气候政策制定者将温度变化目标降低到2.7℃以内——这是《联合国气候变化框架公约》第26次缔约方大会(COP26)承诺的目标。
如果温度上升超过2℃,则欧洲中部、加拿大西部和美国等地的较小冰川将受到不成比例的影响。如果温度上升3℃,这些地区的冰川几乎将完全消失。
Rounce指出,冰川对气候变化的反应需要很长时间。他将冰川描述为流动极其缓慢的河流。今天的减排努力并不能消除以前排放的温室气体,也不能阻止温室气体对气候变化的影响。这意味着即使完全停止碳排放,其正面效应也需要30年至100年才能反映在冰川质量损失率上。
许多因素决定了冰川质量的流失,Rounce的研究推动了用模型解析不同类型的冰川的研究,包括潮汐冰川和碎片覆盖的冰川。前者指漂于海洋的冰川,这导致它们在这个边界失去了很多质量。后者则指被沙子、岩石和巨石覆盖的冰川。
Rounce此前的研究表明,碎屑覆盖层厚度和分布可能对整个区域的冰川融化速率产生积极或消极影响,这取决于碎屑的厚度。在这项最新研究中,他发现,解释这些过程对全球冰川预测的影响相对较小,但在分析单个冰川时却发现了质量损失的巨大差异。
该模型还使用前所未有的大量数据进行了校准,包括对每个冰川的单独质量变化进行观测,从而提供了冰川质量变化的更完整、更详细的图像。可以说,超级计算机对于支持最先进校准方法的应用和不同排放场景的大规模集成必不可少。(王方)
报告显示:超六成受访者认为应强制企业公开算法******
光明网讯(记者 李政葳)“当前,国内对于算法治理的基本思路和框架都是清晰的,而分级分类精准治理的模式应当可以解决如何落实的问题。”在日前举办的“2022啄木鸟数据治理论坛”上,谈及算法治理的现状,清华大学人工智能国际治理研究院副院长、人工智能治理研究中心主任梁正表示,算法分级分类本身不是目标,而是要针对不同风险场景配备不同监管规则。
论坛由南都个人信息保护研究中心联合清华大学人工智能国际治理研究院、人工智能治理研究中心(清华大学)主办。其间,南都个人信息保护研究中心发布《算法应用与治理观察报告》《个人信息安全年度报告》《平台经济反垄断观察报告》。
记者了解到,《算法应用与治理观察报告(2022)》,梳理了国内外的多项法规,结合热点事件及应用场景呈现了算法治理现状,并发布千份算法治理调查问卷了解公众对算法公开和算法治理的了解程度和基本态度,最后基于多方调查分析,给出了当前算法趋势观察以及未来治理方向建议。
报告发现,目前国内算法治理仍处于早期探索阶段,企业的算法公开主要依靠官方的互联网信息服务算法备案系统,或在舆情事件发生之后。调查问卷结果显示,近半受访者承认算法让自己的使用体验更好,但仅一成受访者认为企业算法公开做得很好,逾六成的受访者称曾遭遇“大数据杀熟”;超过六成的受访者认为应该强制企业公开算法。
“在数据、算法方面治理政策进展显著,在平台与应用方面的政策和落地尚需加紧。”中国科学院人工智能伦理与治理研究中心主任、国家新一代人工智能治理专委会委员曾毅认为,目前人工智能伦理有三个相当紧迫的问题需要被正视:首先,人工智能应当被适度使用;其次,目前人工智能服务知情同意落地艰难,被迫知情同意普遍存在;最后,目前用户数据的授权撤销在人工智能服务中存在巨大挑战,需要监管和更高层的网络服务提供方联合提出更合理的政策与解决方案。
针对日前发布的《互联网信息服务深度合成管理规定》,中国政法大学数据法治研究院教授张凌寒表示,从算法治理角度来说,深度合成管理规定与之前的算法推荐管理规定的思路有所不同,前者采用了一种“三位一体由的数据与技术规范。
具体来讲,由于深度合成技术的门槛较高,技术支持者也被纳入了监管范围内。比如,深度合成服务提供者提供智能对话、合成人声、人脸生成、沉浸式拟真场景等服务,应当进行显著标识,这就将更重的责任落在了服务提供者身上。
中国社科院科技和社会研究中心主任段伟文提到,算法治理需要构建可信任的算法认知,而这需要产业和消费者的共同努力:产业要努力提升算法精准性、透明度,减少偏见,减少歧视;消费者则需要提高数字素养,提升算法意识,加强在人机互动中自主性、控制感和协同意识。
(文图:赵筱尘 巫邓炎)