考慮一組共個數據點以及曲線(模型函數)。該曲線同時取決於x與共n個參數(滿足)。目標是找到在最小二乘意義上與數據點擬合最好的曲線所對應的參數,即最小化平方和
其中殘差ri的定義為
S取最小值時的梯度為零。由於模型包含n個參數,因此可得到n個梯度方程:
在非線性系統中,偏導數同時是自變量x和參數的函數,因此這些梯度方程通常沒有封閉解。因而必須為參數選擇初始值用以迭代求解。迭代表達式為
其中,k是迭代次數,則是偏移向量。每次迭代時,使用關於的一階泰勒級數展開以線性化模型:
雅可比矩陣J是常數、自變量與參數的函數,因此每次迭代時的J並不固定。對線性化模型而言,
殘差的表達式則為
將上述表達式代入梯度方程,可以得到
以上方程可化簡為n個聯立的線性方程,稱為正規方程(normal equations):
正規方程可用矩陣表示法寫成
上述方程是使用高斯-牛頓算法求解非線性最小二乘問題的的基礎。
需要注意的是雅可比矩陣定義中導數的符號約定。某些文獻中的J可能與此處的定義相差一個負號。
不同數據點(觀測結果)的可靠性並不一定相同,此時可使用加權平方和
權重矩陣W是一個對角矩陣,理想情況下每個權重係數應等於觀測誤差方差的倒數。[1]此時,正規方程可擴展為