用于参数拟合的数据较少时,用什么方法能得到精度尚可且泛化能力较强的模型?

   我被分配到的任务,是利用产品的3-4个参数(截面大小,长度,强度)等因素,去预测一类产品在经过某种测试后,破坏范围的长度(不是用图像去分析,而仅仅是用关键参数的数值来预测该长度);
   这种产品破坏范围的长度是遵循着某种规律的,有着不同的分析理论,不同的理论对应着不同的计算式:开发人员A依据了20组试验结果,提出了公式A;开发人员B依据40组试验结果提出了公式B,还有许多其他开发人员做了类似的工作;但是这种方式提出的计算式,泛化能力不强,不同的人有不同的公式就有不同的计算结果,对这个问题的解决就很难达成统一;解决问题的一种方式是增加试验样本,但是由于产品的某些特征,通过大量测试来确定计算式的具体参数是不太能实现的。
     现在主要问题是,假如我有100组新产品的破坏长度,相应的关键参数的数值都有;我如何能避免上述计算式泛化能力不强的问题发生?有没有可能通过某种方式在已有数据中增加数据量?或者让少量的样本充分发挥作用的方法?

希望有处理过类似问题,或者相关知识的网友,可以帮忙想一些主意,感激不尽!

巧妇难为无米之炊。
这种专业化的实验数据,仿真是没意义的。增加训练样本是唯一的办法。

这种情况就是数理统计,也就是必须要有大量的数据才能分析出来的,就算是拟合,一两个关键的数据差异就会导致结果出现很大的波动,更何况你目前还是多个因素。
你这种问题可以问问有经验的老师傅看下,有些东西算法模型还真不如老师傅的经验来的准确,可以问问那几个参数里面一般是哪一个参数的影响会比较大,可以根据这些经验来提出一些经验公式,在初始化参数的时候给影响因子比较大的参数有一个比较高的初始值。
另外一种做法就是将100组参数归类,也就是控制变量法,将其他参数一致的放在一起,然后看单独一个参数和破坏长度的变化,然后把这些参数看作是独立分布的情况,最后将结果卷积来当作是公式使用,这部分内容就看你的概率论和数理统计怎么样了,里面的一些分布(类似二次型,高斯,泊松等等分布)结合使用情况了。