中科院重庆研究院张景中院士领导的自动推理与认知研究中心吴文渊团队在代数数恢复的误差控制方面取得新突破,提出了可充分保证计算结果无误差的浮点计算方法,在目前掌握的文献中,计算量最小。
自人类社会诞生以来,计算就贯穿于生活生产的方方面面,它不仅是整个自然科学的基石,也是解决大规模科学工程问题的工具。现今,电子计算机广泛采用的数值计算方法不可避免地给计算结果带来多种误差,在航天航空、生物医疗等领域,计算误差可能会带来严重后果。因此,追求高效率、高精度的计算方法是科学计算的重要研究方向之一。
不同于美国纽约大学学者倡导的无限精度EGC模型,中科院重庆研究院自动推理与认知研究中心吴文渊团队在张景中院士带领下提出了“零误差计算”的概念。该研究团队前期已将有理数域上的零误差计算理论推广到了代数数域(一大类无理数),并从理论上保证中间计算过程采用有误差的数值计算,最终可得到无误差的结果(代数数GAP定理)。
近期,该团队研究人员在代数数恢复的误差控制方面取得新突破。主要是在符号计算国际顶级会议ISSAC2014关于广义LLL格约化基最新结果的基础上,结合代数数GAP定理和矩阵计算中QR分解的误差估计方法,探明了计算过程中浮点位数的取值方法,可以充分保证计算结果的无误差。
该项研究成果表明,零误差计算不仅仅停留在理论分析层面,也可以在目前通用的电子计算机上高效实现。