近期,小米AI眼镜、百度AI相机等智能设备引发公众对AI硬件技术伦理的探讨,而AI在金融领域的算法黑箱、市场操纵等风险亦受到关注。在数字技术与人工智能深度融合的背景下,如何平衡技术创新与用户权益保护成为焦点。专家表示,我国需通过完善法律框架、强化技术合规与行业自律,构建AI发展的“安全护栏”。
“可以考虑在产品设计阶段嵌入隐私保护机制,如动态告知系统、端到端加密等,同时加强算法可解释性,确保AI技术发展与社会责任并重。”在日前举行的2025中关村论坛系列活动-全球财经论坛上,中央财经大学副校长栗峥接受上海证券报记者独家采访时表示,隐私保护需强化知情同意与数据最小化,数据安全依赖加密与合规共享,算法伦理需提升透明度与公平性。未来可以结合实践,不断推动行业自律与技术合规。
据了解,我国已通过《中华人民共和国网络安全法》《中华人民共和国数据安全法》《中华人民共和国个人信息保护法》等法律。在栗峥看来,当前AI硬件领域的法律框架已初步建立,但仍有完善空间。
他进一步表示,一方面,AI硬件依赖大规模数据训练,而目前法律对数据采集、存储、使用的具体边界尚未完全明确;另一方面,AI硬件涉及芯片设计、算法开发、设备制造等多个环节,而目前法律尚未明确各主体的责任归属。“未来,应着力在这两个方面加强理论研究,总结实践探索经验,不断建立有效治理机制。”
在他看来,我国在AI硬件领域要实现技术创新与用户权益保护的平衡,需要重点做好三个方面工作。一是构建分级监管体系,有效兼顾安全与创新。二是完善数据治理机制,包括明确哪些数据能用、怎么用,特别是在重要领域推广能保护隐私的计算技术。三是明确各方权责,并建立专门的纠纷处理渠道和保险保障机制,可以根据不同场景适用过错责任、过错推定责任或严格责任。
长胜证券-股票配资平台合法吗-实盘配资平台app-配资网上炒股平台提示:文章来自网络,不代表本站观点。