马瑜婷代表在实践活动上与青少年交流。资料图片
根据报告对象的不同,马瑜婷不断调整讲话稿,辗转各地为不同年龄、行业人群宣讲党的二十大精神。
11月11日,系统所报告厅,马瑜婷为南京师范大学苏州实验学校等学校的少先队员们上了一堂别开生面的“队课”。
“同学们的爸爸妈妈在小时候吃过一种‘糖丸’,这种美味的药其实是预防脊髓灰质炎的口服疫苗。”马瑜婷在面向中小学生的报告会中,总是以故事开头。“‘糖丸爷爷’顾方舟老先生就是我所在的中国医学科学院的老院长。上个月,我有幸在人民大会堂现场聆听了党的二十大报告,我国对科技创新、人才培养都非常重视。希望同学们未来报考医学院校,加入科技创新的队伍。”听到这里,现场的孩子们都鼓起了掌。
走上系统所8楼,两侧走廊上印有课题组简介,其中有一句话:“实验难免有失败,但科研没有死胡同,潜心思索的人总会迎来柳暗花明。”这是马瑜婷的工作信条。
课题组实验室对面,就是马瑜婷的办公室。距离仅七八步,她每天要往返无数遍,做实验、分析数据、指导研究生……“近期,我们经过大量的药物筛选,发现传统中药成分三氧化二砷能高效诱导免疫原性细胞死亡。我们建立了基于三氧化二砷的治疗性全细胞肿瘤疫苗制备技术和质量控制标准。这一个性化肿瘤疫苗不仅易于制备,而且抑癌效果显著,和PD-1单抗联合使用,能发挥1+1>2的抗癌效果。这是‘老药新用’的一次大胆尝试。”马瑜婷告诉记者。
坐落于苏州工业园区的系统所,是由中国医学科学院北京协和医学院与江苏省、苏州市、苏州工业园区合作共建的新型研究机构。2014年系统所注册成立,次年,马瑜婷放弃国外优渥的待遇回国,并作为首批员工加入。系统所成立之初,实验用具等配备不够齐全,“一开始经常得拎着冰盒到处租用设备做实验”。如今的系统所,已发展成为颇具影响力的生物医药创新高地。
党的二十大报告提出“加快实施创新驱动发展战略”,最能引起马瑜婷共鸣,这也是她传达党的二十大精神的汇报重点。“科技创新贵在发现重大科学问题,产生原创理论,打破固有观念,迎难而上,聚焦突破。”马瑜婷说,2016年9月,中国医学科学院启动医学与健康科技创新工程(以下简称“创新工程”),以“揭榜挂帅”方式鼓励科研人员进行系统攻关。马瑜婷坦言,选准关键方向、给予充足的资金支持,创新工程能够让科研人员定下心来大胆探索、深入开展原始创新,避免在争取经费和“文山会海”中分散精力。
“手捧党的二十大报告,我们深切体会到党中央对于科技创新和健康中国的高度重视。”马瑜婷感慨,“国家大力支持科研的源头创新,鼓励发现原创靶点、机理和药物。我们团队的科研工作将着力推进创新药研发,以肿瘤免疫学守护人民生命健康。”
《光明日报》( 2022年11月23日 05版)
人工智能如何做到可信、可用?专家热议:把责任归结到个人******
中新网北京12月11日电 人工智能治理的理想状态,是人工智能技术能做到可知、可信、可控、可用。而在现实中,人工智能技术手段虽然非常强大,但是离完美、完善仍有相当的距离。从技术角度和技术应用角度,人工智能的发展如何做到扬长避短?
近日,在2022人工智能合作与治理国际论坛上,专家围绕该话题进行了讨论。
中国工程院院士、鹏城实验室主任高文认为,现阶段很多技术还处于发展的过程中,如果过早地说这个不能用、那个不能用,可能会抑制技术本身的发展。但反过来,如果什么都不管,也不行。
“因此,现在更多还是从道德层面多进行引导。同时,做技术的人,也要尽量把一些可能的风险、抑制工具,即约束风险的工具,尽快想明白。自己也做,同时号召大家做,两者结合。”他说。
清华大学智能产业研究院国强教授、首席研究员聂再清认为,我们要保证能够创新,但同时不能让创新对我们的生活产生破坏性的影响,最好的办法就是把责任归结到个人。
“技术的背后是有人在控制的。这个人应该时刻保证工具或创新在危险可控的范围内。同时,社会也要进行集体的监督,发布某个产品或技术,要能够召回、撤销。在创新和监管之间,当然是需要平衡的,但归根结底,还是要把责任落实到个人身上。”他指出。
瑞莱智慧RealAI公司联合创始人、首席执行官田天补充道,在技术可解释性方面,需要去进行技术发展与相应应用场景的深度结合。大家需要一个更加可解释的AI模型,或者更加可解释的AI应用。
“但我们真正想落地的时候,会发现每个人想要的可解释性完全不一样。比如:模型层面的可解释,可能从研发人员角度觉得已经很好了,但是从用户的角度是看不懂的,这需要一些案例级的解释,甚至通过替代模型等方式进行解释。因此,在不同领域,需要不同的可解释能力,以及不同的可解释级别,这样才能让技术在应用场景发挥最好的作用。”他说。
将伦理准则嵌入到人工智能产品与系统研发设计中,现在是不是时候?
高文认为,人工智能软件、系统应该有召回的功能。如果社会或伦理委员会发现这样做不对,可能带来危害,要么召回,要么撤销。
高文说,应用的开发者,系统提交或者最终用户让他去调整的时候,他应该有责任。如果开发者发现已经踩线了,应该给他一个保护机制,他可以拒绝后面的支持和维护,甚至可以起诉。“不能只说哪一方不行,光说是开发者的责任,他可能觉得冤枉,因为他只提供工具,但有时候是有责任的,只是说责任怎么界定。”
“在人工智能的发展过程中,一方面要建立一些红线。”田天建议,比如,对于人工智能的直接滥用,造假、个人隐私泄露,甚至关联到国家安全、生命安全的,这些领域一定要建立相关红线,相应的惩罚规定一定要非常清晰,这是保证人工智能不触犯人类利益的基本保障。
“在这个基础上,对于处于模糊地带的,希望能留有更多空间。不光是从限制角度,也可以从鼓励更加重视伦理的角度,促进合规地发展。”田天称。
2022人工智能合作与治理国际论坛由清华大学主办,清华大学人工智能国际治理研究院(I-AIIG)承办,中国新闻网作为战略合作伙伴,联合国开发计划署(UNDP)、联合国教科文组织(UNESCO)等国际组织、国内外学术机构支持。(中新财经)
(文图:赵筱尘 巫邓炎) [责编:天天中] 阅读剩余全文() |