LQRegulatorGains

LQRegulatorGains[ssm,{q,r}]
给出 StateSpaceModel ssm 的最优状态反馈增益矩阵,以及具有状态和控制加权矩阵 qr 的二次代价函数.

LQRegulatorGains[ssm,{q,r,p}]
在代价函数中包括状态控制交叉耦合矩阵 p.

LQRegulatorGains[{ssm,finputs},{}]
指定 finputsssm 的反馈输入.

更多信息和选项更多信息和选项

  • 标准状态空间模型 ssm 可以按 StateSpaceModel[{a,b,}] 给出,其中 ab 表示连续时间或者离散时间系统中的状态和输入矩阵:
  • 连续时间系统
    离散时间系统
  • 在连续时间或者离散时间中,描述器状态空间模型 ssm 可以按 StateSpaceModel[{a,b,c,d,e}] 给出:
  • 连续时间系统
    离散时间系统
  • LQRegulatorGains also accepts nonlinear systems specified by AffineStateSpaceModel and NonlinearStateSpaceModel.
  • For nonlinear systems, the operating values of state and input variables are taken into consideration, and the gains are computed based on the approximate Taylor linearization and returned as a vector.
  • 参数 finputs 是指定 中反馈输入 的位置的整数列表.
  • LQRegulatorGains[ssm,{}] 等价于 LQRegulatorGains[{ssm,All},{}].
  • 代价函数是:
  • 连续时间系统
    离散时间系统
  • LQRegulatorGains[ssm,{q,r}] 中,交叉耦合矩阵 p 为零.
  • 最优控制由 给出,其中 是计算所得的反馈增益矩阵.
  • 对于连续时间系统,最优反馈增益根据 kappa=TemplateBox[{r}, Inverse].(b.x_r+p) 计算,其中 是连续黎卡提方程 a.x_r+x_r.a-(x_r.b+p).TemplateBox[{r}, Inverse].(b.x_r+p)+q=0 的解. 而 是与反馈输入 相关联的 的子矩阵.
  • 对于离散时间系统,最优反馈增益根据 kappa=TemplateBox[{{(, {{{b, }, ., {x, _, r}, ., b}, +, r}, )}}, Inverse].(b.x_r.a+p) 计算,其中 是离散黎卡提方程 a.x_r.a-x_r-(a.x_r.b+p)TemplateBox[{{., {(, {{{b, }, ., {x, _, r}, ., b}, +, r}, )}}}, Inverse].(b.x_r.a+p)+q=0 的解.
  • 最优控制 是唯一的并且稳定的,如果 是可稳定的, 是可检测的, 并且 .

范例范例打开所有单元关闭所有单元

基本范例  (5)基本范例  (5)

计算连续时间系统的最优反馈增益矩阵:

In[1]:=
Click for copyable input
In[2]:=
Click for copyable input
In[3]:=
Click for copyable input
Out[3]=

计算一个不稳定系统的最优控制增益:

In[1]:=
Click for copyable input
In[2]:=
Click for copyable input

比较开环和闭环极点:

In[3]:=
Click for copyable input
Out[3]=

计算离散时间系统的最优状态反馈增益矩阵:

In[1]:=
Click for copyable input
In[2]:=
Click for copyable input
Out[2]=

计算反馈增益,以控制利用第一个输入的双输入系统:

In[1]:=
Click for copyable input
In[2]:=
Click for copyable input
Out[2]=

一个稳定但是不可控制的系统的反馈增益集合:

In[1]:=
Click for copyable input
Out[1]=
2010年引入
(8.0)
| 2014年更新
(10.0)