张华平:加快建立完善中国特色的环境信息依法披露制度******
中新网北京11月17日电 (记者 宋宇晟)“环境信息披露是生态文明制度体系中一项基础性工作,也是一项系统性改革,需要政府、行业、企业共同参与、持续完善。”
16日,生态环境部综合司副司长张华平在生态环境部与欧在华跨国企业高层圆桌会上作主旨发言时如是说。
图为生态环境部综合司副司长张华平作主旨发言。
张华平指出,近年来,生态环境部认真贯彻党中央、国务院决策部署,建立了中国特色的环境信息依法披露制度,引导企业披露其遵守生态环境法律法规情况和环境治理情况,为市场提供“看得到”“看得全”“看得懂”“看得真”的生态环境信息,切实打通市场主体间、市场主体与监管部门间的信息壁垒,引导企业采取环境友好的生产、经营、投资方式,提升环境绩效,让环保工作突出的企业更好地展现自身,帮助市场更好地选择环境治理表现优秀的合作对象,提升市场公平性,推动企业绿色转型发展。
张华平表示,下一步,将会同有关部门一起持续深化环境信息披露制度改革,推动环境信息披露成为现代环境治理体系的重要政策工具,成为服务绿色金融发展的重要参考依据。
张华平指出,跨国企业在促进经济高质量发展中发挥着重要作用,在践行ESG理念、开展环境信息披露中积累了不少经验,后续加强政策交流,共同研究解决披露难点和问题,推进中央改革任务落实落地,进一步提升生态环境监管精准度、创新生态环境治理模式、提升生态环境治理绩效,为包括在华跨国企业在内的重点企业绿色低碳发展、高质量发展提供支撑。
本次圆桌会以“启航新征程 推动绿色发展”为主题,由生态环境部环境与经济政策研究中心、中国新闻社主办,中国新闻网承办。(完)
搜索
复制
报告显示:超六成受访者认为应强制企业公开算法****** 光明网讯(记者 李政葳)“当前,国内对于算法治理的基本思路和框架都是清晰的,而分级分类精准治理的模式应当可以解决如何落实的问题。”在日前举办的“2022啄木鸟数据治理论坛”上,谈及算法治理的现状,清华大学人工智能国际治理研究院副院长、人工智能治理研究中心主任梁正表示,算法分级分类本身不是目标,而是要针对不同风险场景配备不同监管规则。 论坛由南都个人信息保护研究中心联合清华大学人工智能国际治理研究院、人工智能治理研究中心(清华大学)主办。其间,南都个人信息保护研究中心发布《算法应用与治理观察报告》《个人信息安全年度报告》《平台经济反垄断观察报告》。 记者了解到,《算法应用与治理观察报告(2022)》,梳理了国内外的多项法规,结合热点事件及应用场景呈现了算法治理现状,并发布千份算法治理调查问卷了解公众对算法公开和算法治理的了解程度和基本态度,最后基于多方调查分析,给出了当前算法趋势观察以及未来治理方向建议。 报告发现,目前国内算法治理仍处于早期探索阶段,企业的算法公开主要依靠官方的互联网信息服务算法备案系统,或在舆情事件发生之后。调查问卷结果显示,近半受访者承认算法让自己的使用体验更好,但仅一成受访者认为企业算法公开做得很好,逾六成的受访者称曾遭遇“大数据杀熟”;超过六成的受访者认为应该强制企业公开算法。 “在数据、算法方面治理政策进展显著,在平台与应用方面的政策和落地尚需加紧。”中国科学院人工智能伦理与治理研究中心主任、国家新一代人工智能治理专委会委员曾毅认为,目前人工智能伦理有三个相当紧迫的问题需要被正视:首先,人工智能应当被适度使用;其次,目前人工智能服务知情同意落地艰难,被迫知情同意普遍存在;最后,目前用户数据的授权撤销在人工智能服务中存在巨大挑战,需要监管和更高层的网络服务提供方联合提出更合理的政策与解决方案。 针对日前发布的《互联网信息服务深度合成管理规定》,中国政法大学数据法治研究院教授张凌寒表示,从算法治理角度来说,深度合成管理规定与之前的算法推荐管理规定的思路有所不同,前者采用了一种“三位一体由的数据与技术规范。 具体来讲,由于深度合成技术的门槛较高,技术支持者也被纳入了监管范围内。比如,深度合成服务提供者提供智能对话、合成人声、人脸生成、沉浸式拟真场景等服务,应当进行显著标识,这就将更重的责任落在了服务提供者身上。 中国社科院科技和社会研究中心主任段伟文提到,算法治理需要构建可信任的算法认知,而这需要产业和消费者的共同努力:产业要努力提升算法精准性、透明度,减少偏见,减少歧视;消费者则需要提高数字素养,提升算法意识,加强在人机互动中自主性、控制感和协同意识。 (文图:赵筱尘 巫邓炎) [责编:天天中] 阅读剩余全文() |