李明哲清了清嗓子,抛出了他的问题。
“众所周知,人工智能正以前所未有的速度发展,其潜力和风险同样巨大。当前业界和学术界,大多精力都放在了如何弥补ai的安全漏洞上,比如防止算法偏见、避免数据泄露、对抗恶意攻击等等。这象是在给一辆高速行驶的汽车不断打补丁、换零件。我的问题是,我们如何才能从根本上转变思路,从被动的修补,转向主动的构建本质安全的ai?也就是在设计ai的底层架构之初,就将安全性、可控性、可解释性如同基石一般,深深地、不可分割地嵌入进去?这其中的内核挑战或者可能的路径是什么?”
李明哲提出的这个问题直指ai安全领域的内核困境还有未来方向,非常有深度。
郭广倡微微点头,对张立刚低语。
“听听,这才是真问题。”
张立刚笑着附和。
“看看我们江总怎么回答。”
朱龙作为依图科技的创始人,本身就是ai领域的顶尖人物,此刻也带着期待的目光看向江倾。
“李教授这个问题问得好,江总,我也很想听听你的高见。”
田熹薇完全听不懂这些术语,什么“架构”、“嵌入”、“可解释性”,只觉得每个字都象天书。
看着周围这些科技大佬学界教授们全都目光灼灼地盯着江倾,等着他的回答,她不由得感到一阵紧张,手心都有些冒汗,下意识地更紧地挨着江倾。
与她形成鲜明对比的是王憷然。
虽然她也未必完全理解问题的深度,但她的脸上没有丝毫茫然或紧张,只有对江倾近乎盲目的信赖。
她微微仰着头,看着江倾的侧脸,眼神亮得惊人,仿佛确信他一定能给出最完美的答案,化解所有难题。
江倾面对众人的目光,依旧是那副从容不迫的样子。
他安抚地拍了拍田熹薇的手背,松开她走向前几步,迎着诸多视线快速组织了下语言。
旋即,声音不紧不慢地响起。
“李教授这个问题非常关键,点中了ai发展的命门。akesafeai而非仅仅是akeaisafe,这确实是未来必须走的路,也是最大的挑战。”
他顿了顿,用了一个通俗的比喻。
“这就象我们盖房子。akeaisafe是在房子盖好之后,发现哪里漏风就堵一堵,哪里结构不稳就加根柱子,是事后的补救。而akesafeai,要求我们在一开始打地基、设计蓝图的时候,就把抗震、防火、防洪这些安全标准,作为内核的设计准则,融入到每一根钢筋、每一块砖瓦里。房子盖好了,安全属性是与生俱来的,不是后期粘贴去的。”
李明哲教授眼睛一亮,连连点头。
“这个比喻很形象!正是这个意思!”
江倾冲他笑着点点头,继续回答。
“要实现这种根本性的转变,我认为内核挑战和可能的路径主要在几个层面。”
他伸出手指,条理分明地阐述。
“第一,数学与理论基础的突破。我们现有的ai,尤其是深度学习,其运作机制很大程度上还是个黑箱。我们需要发展新的数学工具和理论框架,能够严格地定义和验证ai系统的安全性、鲁棒性和可预测性。比如,如何用数学证明一个神经网络在遭遇从未见过的输入时,不会产生灾难性的错误输出?这需要理论根基的革新。”
朱龙深以为然地点头。
“没错,理论是地基。没有坚实的理论基础,上层建筑的安全无从谈起。”
江倾微笑颔首,随即继续开口。
“第二,安全优先的架构设计。这要求我们颠复一些现有的设计范式。”
他举例说明。
“比如,传统的ai训练目标往往是单一的性能最大化。我们需要将安全作为一个同等重要,甚至有时需要优先考虑的内核优化目标,融入到训练算法本身。再比如,设计内置的安全阀机制,当ai检测到自身行为可能偏离缺省的安全边界时,能自动触发限制或停止运行,而不是象现在这样,有时会一条道走到黑。”
“第三,人机协作与可解释性。本质安全的ai不应该是完全脱离人类掌控的黑箱怪物。”
江倾略微提高声音强调。
“它需要具备良好的可解释性,能让人类理解其决策逻辑。更重要的是,设计上要强调人机协作,让ai成为人类能力的延伸和辅助,而不是替代。在关键决策节点,尤其是涉及重大伦理或安全风险的场景,必须保留清淅、有效的人类监督和否决权。”