咱们现在聊一个大的话题,全球开放数据,这事儿可是越来越热闹了。尤其是现在有了AI,科研的方法都在跟着变呢。最近啊,施普林格·自然他们联合一些数字公司还有Figshare知识库,搞了个报告,叫《2025年开放数据状况:十年进展与挑战》,这可是连续搞了十年的大追踪了。他们找了全球151个国家超过4700名的科研人员、图书馆员还有政策制定者聊了聊,发现开放科学不光是说说而已,真的成了大伙儿的共识。你看这数据,有88%的人支持开放获取出版,80%的人支持研究数据开放,75%的人赞同开放同行评审,这比例高得吓人。大家都觉得透明、协作、共享这事儿,已经不分国界和学科了。 不过呢,大家也有个盼头,就是得把这些共识变成实实在在的流程,让操作门槛降下来。特别是“FAIR”原则,就是为了让数据好找、好用、能复用,大家对它的认知度这几年涨了不少。跟2018年比起来,好多人都懂了,说明数据治理的概念已经开始落实了。 但问题也不少,大家都觉得数据共享在绩效评估里得不到啥好处,这就成了阻碍高质量数据持续开放的大坎儿。专家们说,得改改传统的评价体系,把数据贡献跟论文、专利放在一个级别上。 政策这块儿也是各有各的不同。虽然好多国家都发了指令或者框架,可不同地区、不同学科支持度差距挺大。这跟学科数据类型不一样、基础设施成熟度不一样还有文化传统有关。所以啊,政策不能一刀切,得有弹性,得跟实际需求对接好。 还有个大变化就是AI的应用越来越猛。报告里说,主动用AI处理数据的科研人员比例一下子涨了快十个点,连做元数据都更顺手了。AI在自动化处理、挖知识、找模式上的本事特别大,能帮我们把大数据管得更“FAIR”。不过技术太猛也有风险,伦理边界、安全、产权还有算法透明这些问题得赶紧定标准。 现在咱们站在一个新起点上:一方面大家心里都有数了,技术工具也给力;另一方面还得想办法建立起激励机制、政策体系还有负责任的技术规范。 展望未来啊,只有理念、政策、技术和评价体系一块儿往前走,才能把开放科学的潜力发挥到最大。