fluent吧 关注:18,322贴子:94,724
  • 2回复贴,共1

求助,非稳态模拟时,在1000s自动停止迭代

只看楼主收藏回复


模型是上面这样子的. ,我模拟的一个下送风,上回风,给冷藏箱内降温的非稳态过程.采用k-方程和能量方程。
我编写了一个udf,如下:
#include "udf.h"
DEFINE_PROFILE(inlet_temp, thread,position)
{
face_t f;
begin_f_loop(f, thread)
{
real t=RP_Get_Real("flow-time");
if(t<2520)
F_PROFILE(f,thread,position)=5e-13*pow(t,4)-4e-9*pow(t,3)+2e-5*pow(t,2)-0.029*t+293.78;
else
F_PROFILE(f,thread,position)=273.15;
}
end_f_loop(f,thread)
}
Udf的意思是在时间小于2520s时,用上面这个方程得到温度,这个方程式我实验得出的一些点,然后曲线拟合得到的;在大于2520s时,送风温度稳定在了273.15k.
冷藏箱内的初始温度我采用patch定义的,

求解我采用adaptive
最后问题出现了,当他在1000s的时候他就表示计算完成了。可是事实上不是这样子的.


IP属地:上海1楼2016-07-14 19:37回复
    楼主找到答案了吗?我现在也是这个问题,不知道是怎么回事?


    IP属地:福建2楼2017-04-19 15:28
    回复
      收敛了吧


      IP属地:江苏来自Android客户端4楼2017-09-16 11:16
      回复