Movatterモバイル変換


[0]ホーム

URL:


LoginSignup
5

Go to list of users who liked

0

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?

Physics-Informed Neural Networks (PINNs)による減衰振動の運動方程式の解法とその図解

Posted at

はじめに

 近年、物理法則を加味した機械学習が多く登場してきてます。
 PINNsの概念は2017年にRaissiら【文献 1】【文献 2】によって最初の報告があり、2019年に非線形偏微分方程式の解法【文献 3】に適用され、注目を集めることとなりました。
 すでにいくつかのコードや考え方も記されているので、

Physics-Informed Neural Networks (PINNs)を減衰振動の運動方程式に適用してみた!
PINNs(Physics Informed Neural Networks)に挑戦してみた

 ここでは、バネによる減衰振動の解法について、DNNとPINNsの違いについて、その流れを図解したいと思います。

図解

 DNNおよびPINNsも基本的な流れは同じです。
 与えられたデータに対して、最適な層を構成して損失を計算します。
 損失が最小になるように、ネットワーク中の重みやバイアスを計算するため偏微分してこれらを更新します。
 新たな重みやバイアスを与えて、再度、損失が最小になるように計算を進めています。

データ駆動型のDNNとPINNsの違い

 バネの減衰方程式は、$t$と$x$の関数で成り立っています。

 m \frac{d^2x}{dt^2} + c \frac{dx}{dt} + kx = 0 

image.png

 DNNでは、時間$t$を与えたときに、予測値$x$を算出できるニューラルネットワークを構築し、勾配降下法を用いて予測誤差が最小になるように重みを更新します。
 一方、Physics-Informed Neural Networks(PINNs)は、得られたデータ解と運動方程式から誤差を求め、データからの誤差と物理法則による誤差の総和が最小になるように勾配降下法で重み等を更新し、誤差を縮小する手法です。図中のλが物理法則による誤差をどこまで含めるかということを示しています。単純な計算では発散しないのですが、複雑な場合この値を大きくしすぎると発散し易くなります。

 下記のサンプルデータを動かせば、結果図のようなgifが作成できます。

結果図

training_animation.gif

 DDNN(データドリブンニューラルネットワーク;今のところ一般的な呼び名では無いようです、念のため)に比べてPINNsは、学習データが少なくて最適な学習ができるうえ、学習していないデータ範囲でも最適な値が得られます。

データ生成
# data_generator.pyとして保存importnumpyasnpimporttensorflowastfdefFDM(init_x,init_v,init_t,gamma,omega,dt,T):x,v,t=init_x,init_v,init_tg,w0=gamma,omeganum_iter=int(T/dt)alpha=np.arctan(-1*g/np.sqrt(w0**2-g**2))a=np.sqrt(w0**2*x**2/(w0**2-g**2))t_array,x_array,v_array=[],[],[]x_analytical_array,diff_array=[],[]foriinrange(num_iter):fx=vfv=-1*w0**2*x-2*g*vx=x+dt*fxv=v+dt*fvt=t+dtx_a=a*np.exp(-1*g*t)*np.cos(np.sqrt(w0**2-g**2)*t+alpha)diff=x_a-xt_array.append(t)x_array.append(x)x_analytical_array.append(x_a)v_array.append(v)diff_array.append(diff)returnt_array,x_array,v_array,x_analytical_array,diff_arraydefanalytical_solution(g,w0,t):assertg<=w0w=np.sqrt(w0**2-g**2)phi=np.arctan(-g/w)A=1/(2*np.cos(phi))cos=tf.math.cos(phi+w*t)sin=tf.math.sin(phi+w*t)exp=tf.math.exp(-g*t)x=exp*2*A*cosreturnxdefgenerate_training_data(g=2.0,w0=20.0,n_points=500):# Generate time pointst=tf.linspace(0,1,n_points)t=tf.reshape(t,[-1,1])# Generate analytical solutionx=analytical_solution(g,w0,t)x=tf.reshape(x,[-1,1])# Create data points for DDNN (evenly spaced)ddnn_indices=[iforiinrange(0,300,20)]t_data_ddnn=tf.gather(t,ddnn_indices)x_data_ddnn=tf.gather(x,ddnn_indices)# Create data points for PINN (random points)pinn_indices=[0,35,50,110,300]t_data_pinn=tf.gather(t,pinn_indices)x_data_pinn=tf.gather(x,pinn_indices)# Generate PINN collocation pointst_pinn=tf.linspace(0,1,30)t_pinn=tf.reshape(t_pinn,[-1,1])return{'t':t,'x':x,'t_data_ddnn':t_data_ddnn,'x_data_ddnn':x_data_ddnn,'t_data_pinn':t_data_pinn,'x_data_pinn':x_data_pinn,'t_pinn':t_pinn,'c':2*g,'k':w0**2}
トレーニング
# training.pyとして保存importtensorflowastfdefMLP(n_input,n_output,n_neuron,n_layer,act_fn='tanh'):'''関数    Args:        n_input: 入力層のユニット数        n_output: 出力層のユニット数        n_neuron: 隠れ層のユニット数        n_layer: 隠れ層の層数        act_fn: 活性化関数    Returns:        model: MLPモデル'''tf.random.set_seed(1234)model=tf.keras.Sequential([tf.keras.layers.Dense(units=n_neuron,activation=act_fn,kernel_initializer=tf.keras.initializers.GlorotNormal(),input_shape=(n_input,),name='H1')])foriinrange(n_layer-1):model.add(tf.keras.layers.Dense(units=n_neuron,activation=act_fn,kernel_initializer=tf.keras.initializers.GlorotNormal(),name='H{}'.format(str(i+2))))model.add(tf.keras.layers.Dense(units=n_output,name='output'))returnmodelclassEarlyStopping:def__init__(self,patience=10,verbose=0):self.epoch=0self.pre_loss=float('inf')self.patience=patienceself.verbose=verbosedef__call__(self,current_loss):ifself.pre_loss<current_loss:self.epoch+=1ifself.epoch>self.patience:ifself.verbose:print('early stopping')returnTrueelse:self.epoch=0self.pre_loss=current_lossreturnFalse# データ駆動型ニューラルネットワークclassDataDrivenNNs:def__init__(self,n_input,n_output,n_neuron,n_layer,epochs,act_fn='tanh'):"""        データ駆動型ニューラルネットワークの初期化                Parameters:        n_input: 入力層のニューロン数        n_output: 出力層のニューロン数        n_neuron: 隠れ層の1層あたりのニューロン数        n_layer: 隠れ層の層数        epochs: 学習エポック数        act_fn: 活性化関数(デフォルトはtanh)"""self.n_input=n_inputself.n_output=n_outputself.n_neuron=n_neuronself.n_layer=n_layerself.epochs=epochsself.act_fn=act_fnself._loss_values=[]# 損失値の履歴を保存するリストdefbuild(self,optimizer,loss_fn,early_stopping):"""        モデルの構築                Parameters:        optimizer: 最適化アルゴリズム        loss_fn: 損失関数        early_stopping: 早期停止の条件"""self._model=MLP(self.n_input,self.n_output,self.n_neuron,self.n_layer,self.act_fn)self._optimizer=optimizerself._loss_fn=loss_fnself._early_stopping=early_stoppingreturnselfdeftrain_step(self,t_data,x_data):"""        1ステップの学習を実行                Parameters:        t_data: 時間データ        x_data: 教師データ"""# 勾配の計算withtf.GradientTape()astape:x_pred=self._model(t_data)# モデルの予測loss=self._loss_fn(x_pred,x_data)# 損失の計算# 勾配を用いたパラメータの更新gradients=tape.gradient(loss,self._model.trainable_variables)self._optimizer.apply_gradients(zip(gradients,self._model.trainable_variables))self._loss_values.append(loss)returnselfdeftrain(self,t_data,x_data):self._loss_values=[]foriinrange(self.epochs):self.train_step(t_data,x_data)ifself._early_stopping(self._loss_values[-1]):breakclassPhysicsInformedNNs:def__init__(self,n_input,n_output,n_neuron,n_layer,epochs,act_fn='tanh'):"""        物理情報を考慮したニューラルネットワークの初期化        (DataDrivenNNsと同じパラメータ構成)"""self.n_input=n_inputself.n_output=n_outputself.n_neuron=n_neuronself.n_layer=n_layerself.epochs=epochsself.act_fn=act_fnself._loss_values=[]defbuild(self,optimizer,loss_fn,early_stopping):"""        モデルの構築(DataDrivenNNsと同じ構造)"""self._model=MLP(self.n_input,self.n_output,self.n_neuron,self.n_layer,self.act_fn)self._optimizer=optimizerself._loss_fn=loss_fnself._early_stopping=early_stoppingreturnselfdeftrain_step(self,t_data,x_data,t_pinn,c,k):"""        物理法則を考慮した1ステップの学習を実行                Parameters:        t_data: 時間データ        x_data: 教師データ        t_pinn: 物理法則を適用する時間点        c: 減衰係数        k: バネ定数"""withtf.GradientTape()astape_total:tape_total.watch(self._model.trainable_variables)# データに基づく損失の計算x_pred=self._model(t_data)loss1=self._loss_fn(x_pred,x_data)loss1=tf.cast(loss1,dtype=tf.float32)# 物理法則に基づく損失の計算withtf.GradientTape()astape2:tape2.watch(t_pinn)withtf.GradientTape()astape1:tape1.watch(t_pinn)x_pred_pinn=self._model(t_pinn)dx_dt=tape1.gradient(x_pred_pinn,t_pinn)# 1階微分dx_dt2=tape2.gradient(dx_dt,t_pinn)# 2階微分# データ型の統一dx_dt=tf.cast(dx_dt,dtype=tf.float32)dx_dt2=tf.cast(dx_dt2,dtype=tf.float32)x_pred_pinn=tf.cast(x_pred_pinn,dtype=tf.float32)# 物理法則(運動方程式)に基づく損失loss_physics=dx_dt2+c*dx_dt+k*x_pred_pinnloss2=5.0e-4*self._loss_fn(loss_physics,tf.zeros_like(loss_physics))loss2=tf.cast(loss2,dtype=tf.float32)# 総損失の計算loss=loss1+loss2# 勾配を用いたパラメータの更新self._optimizer.minimize(loss,self._model.trainable_variables,tape=tape_total)self._loss_values.append(loss)returnselfdeftrain(self,t_data,x_data,t_pinn,c,k):self._loss_values=[]foriinrange(self.epochs):self.train_step(t_data,x_data,t_pinn,c,k)ifself._early_stopping(self._loss_values[-1]):break
メイン
# main.pyとして保存importtensorflowastffromdata_generatorimportgenerate_training_datafromtrainingimportDataDrivenNNs,PhysicsInformedNNs,EarlyStoppingimportmatplotlib.pyplotaspltimportosfromPILimportImageimportioimportnumpyasnp# 日本語フォント設定plt.rcParams['font.family']='IPAexGothic'plt.rcParams['axes.unicode_minus']=Falseplt.rcParams['font.size']=12classModelManager:def__init__(self,model_type,n_neuron=32,n_layer=4):self.model_type=model_typeifmodel_type=="DDNN":self.model=DataDrivenNNs(1,1,n_neuron,n_layer,1)elifmodel_type=="PINN":self.model=PhysicsInformedNNs(1,1,n_neuron,n_layer,1)self.optimizer=tf.keras.optimizers.Adam(learning_rate=1e-3)self.loss_fn=tf.keras.losses.MeanSquaredError()self.early_stopping=EarlyStopping(patience=200,verbose=0)self.model.build(self.optimizer,self.loss_fn,self.early_stopping)defsave_model(self,path):ifnotos.path.exists(path):os.makedirs(path)self.model._model.save_weights(f"{path}/{self.model_type}_weights.h5")defload_model(self,path):weights_path=f"{path}/{self.model_type}_weights.h5"ifos.path.exists(weights_path):self.model._model.load_weights(weights_path)returnTruereturnFalsedefcreate_frame(t,x_analytical,t_data_ddnn,x_data_ddnn,t_data_pinn,x_data_pinn,x_pred_ddnn,x_pred_pinn,current_step):"""単一フレームを生成する補助関数"""fig,(ax1,ax2)=plt.subplots(2,1,figsize=(10,8))# DDNN予測の可視化ax1.plot(t,x_analytical,'r--',label='減衰方程式',linewidth=2)ax1.plot(t,x_pred_ddnn,'g-',label='DDNN予測',linewidth=2)ax1.scatter(t_data_ddnn,x_data_ddnn,c='b',s=50,label='学習データ')ax1.set_title(f'DDNN Training (Step{current_step})',fontsize=12)ax1.set_ylabel('Position (x)',fontsize=12)ax1.grid(True,linestyle='--',alpha=0.7)ax1.legend(fontsize=10,loc='upper right')ax1.set_ylim(-1.5,1.5)# PINN予測の可視化ax2.plot(t,x_analytical,'r--',label='減衰方程式',linewidth=2)ax2.plot(t,x_pred_pinn,'g-',label='PINN予測',linewidth=2)ax2.scatter(t_data_pinn,x_data_pinn,c='b',s=50,label='学習データ')ax2.set_title(f'PINN Training (Step{current_step})',fontsize=12)ax2.set_xlabel('Time (t)',fontsize=12)ax2.set_ylabel('Position (x)',fontsize=12)ax2.grid(True,linestyle='--',alpha=0.7)ax2.legend(fontsize=10,loc='upper right')ax2.set_ylim(-1.5,1.5)plt.tight_layout()# プロットをPIL Imageに変換buf=io.BytesIO()plt.savefig(buf,format='png')plt.close()buf.seek(0)returnImage.open(buf)defcreate_training_animation(t,x_analytical,t_data_ddnn,x_data_ddnn,t_data_pinn,x_data_pinn,n_neuron=32,n_layer=4,n_frames=50,duration=100,save_path='training_animation.gif'):"""学習過程をアニメーションGIFとして保存する関数"""# モデルマネージャーの初期化ddnn_manager=ModelManager("DDNN",n_neuron,n_layer)pinn_manager=ModelManager("PINN",n_neuron,n_layer)# フレームを格納するリストframes=[]# 学習ステップ数の計算(等間隔)total_steps=20000steps_per_frame=total_steps//n_framestry:# 各フレームの生成forframeinrange(n_frames):# 現在のステップ数current_step=frame*steps_per_frame# モデルの学習for_inrange(steps_per_frame):ddnn_manager.model.train_step(t_data_ddnn,x_data_ddnn)pinn_manager.model.train_step(t_data_pinn,x_data_pinn,t,4.0,400.0)# 予測の実行x_pred_ddnn=ddnn_manager.model._model(t)x_pred_pinn=pinn_manager.model._model(t)# フレームの生成と追加frame_image=create_frame(t,x_analytical,t_data_ddnn,x_data_ddnn,t_data_pinn,x_data_pinn,x_pred_ddnn,x_pred_pinn,current_step)frames.append(frame_image)# GIFアニメーションの保存ifframes:frames[0].save(save_path,save_all=True,append_images=frames[1:],optimize=False,duration=duration,loop=0)print(f"Animation saved to{save_path}")finally:# メモリの解放forframeinframes:frame.close()defmain():# トレーニングデータの生成data=generate_training_data()# アニメーションの作成create_training_animation(t=data['t'],x_analytical=data['x'],t_data_ddnn=data['t_data_ddnn'],x_data_ddnn=data['x_data_ddnn'],t_data_pinn=data['t_data_pinn'],x_data_pinn=data['x_data_pinn'],n_frames=50,duration=100,save_path='training_animation.gif')if__name__=="__main__":main()
5

Go to list of users who liked

0
0

Go to list of comments

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
5

Go to list of users who liked

0

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?


[8]ページ先頭

©2009-2025 Movatter.jp