国家知识产权局4月1日发布风险提示,近期OpenClaw(“小龙虾”,曾用名Clawdbot、Moltbot)等智能体工具被曝光默认安全配置脆弱,易引发严重安全风险。使用此类智能体撰写专利申请文件,可能诱发三重风险。
一、技术信息泄露风险。 OpenClaw等智能体存在权限过高、安全漏洞、插件投毒等隐患,使用其撰写申请文件,易造成技术交底书等核心信息外泄。一旦泄露,专利申请技术方案可能因丧失新颖性无法授权,甚至被他人抢先申请。申请人将遭受重大损失,代理机构还需承担违约赔偿责任。
二、实质缺陷风险。 利用智能体撰写申请文件时可能出现“AI幻觉”,导致文件存在逻辑矛盾、技术特征表述不清等问题,从而无法获得有效保护。
三、不诚信申请风险。 通过智能体凭空生成、随机编造、内容拼凑形成专利申请,属于违反诚实信用原则的行为。达到一定数量,申请人将面临警告、罚款等行政处罚;代理机构及代理师将被吊销执业许可证、注销资格证,情节严重的列入严重违法失信名单。
为防范上述风险,国家知识产权局提示:
申请人需提高风险防范意识,审慎选择合规专利代理服务,主动确认代理机构是否使用智能体撰写申请文件。如发现代理机构擅自使用相关工具造成泄露或不诚信申请,可依法投诉举报并要求赔偿。
专利代理机构及代理师务必高度警惕智能体使用风险,杜绝使用智能体开展不诚信专利申请行为,切实保障委托人合法权益。
中国政法大学知识产权研究中心特约研究员赵占领指出,根据专利法,技术交底书等核心信息一旦通过存在安全隐患的智能体外泄,即构成公开行为,将丧失新颖性无法授权。他建议,传统知识产权制度要适应人工智能发展,首要任务是在专利法中明确实质性贡献标准,界定自然人对技术方案的智力控制程度,排除纯粹由AI生成成果的授权范围。同时,《专利审查指南》应增加针对AI生成文件的专门审查标准,审查员有权要求申请人披露技术方案形成过程,以识别不诚信申请。
针对中小企业和个人发明人如何安全使用AI工具,赵占领建议:将AI严格限定于信息检索、语言润色、格式整理等辅助环节,核心技术方案构思、权利要求设计及法律风险评估须由人工完成或经执业代理人审核。要建立完整的使用留痕机制,保存每一次AI互动记录、人工修改版本及最终确认文件,以证明核心技术文件系人工撰写或确认。申请人在选择代理机构时,应主动询问其是否使用AI,要求明确承诺人工撰写、AI仅作辅助,并将相关承诺写入委托合同,以便在代理机构违约时追究其责任。
来源:光明日报全媒体记者王美莹,综合自国家知识产权局、中国之声
责编:张永群
编辑:张雪瑜 常莹
【未经授权,严禁转载!联系电话028-86968276】
