אנליזה נומרית/פתרון מערכת משוואות לינאריות: הבדלים בין גרסאות בדף

תוכן שנמחק תוכן שנוסף
Mintz l (שיחה | תרומות)
מאין תקציר עריכה
Mintz l (שיחה | תרומות)
שורה 127:
:<math>\ x_i^{(n+1)}= -\sum_{j=1}^{i-1} {a_{ij}\over a_{ii}} x_j^{(n+1)} -\sum_{j=i+1}^{N} {a_{ij}\over a_{ii}} x_j^{(n)}+ {b_i\over a_{ii}}\ ,\quad i=1,..,N;\ n=0,1,2,...</math>
בשיטה זו, בכל איטרציה משתמשים בערכים האחרונים שהתקבלו. כלומר כאן i-1 הנעלמים בוקטור הנעלמים מתעדכנים לפי הסדר יחד עם הנעלם ה-i, עם התקדמות הלולאה. מסיבה זו ההתכנסות מהירה פי 2 משיטת Jacobi. בדיקת ההתכנסות תתבצע כמו בשיטה הקודמת.
 
===השוואה בין שיטת יעקובי לשיטת גאוס-זיידל===
ננתח את השיטות במקרה של מערכת מסדר 2:
:<math>\ \left[\begin{matrix}
a & b \\
c & d
\end{matrix}\right]
 
\left\{\begin{matrix}
x_1 \\
x_2
\end{matrix}\right\}
=
\left\{\begin{matrix}
e_1 \\
e_2
\end{matrix}\right\}</math>
 
במקרה זה, התהליך האיטרטיבי הוא מהצורה:
:<math>\ \begin{matrix}
\underline{\mbox{Jacobi}} & \qquad \underline{\mbox{G-S}} \\
ax_1^{(n+1)}= e_1-bx_2^{(n)} & \qquad ax_1^{(n+1)}= e_1-bx_2^{(n)} \\
dx_2^{(n+1)}= e_2-cx_1^{(n)} & \qquad dx_2^{(n+1)}= e_2-cx_1^{(n+1)}
\end{matrix}</math>
כלומר ההבדל היחיד הוא ששיטת גאוס-זיידל משתמשת בערך המעודכן של x<sub>1</sub>.
 
נציב את הביטוי לשגיאה <math>\ x_i=\epsilon_i+\alpha_i</math> ונקבל:
:<math>\ \begin{matrix}
\underline{\mbox{Jacobi}} & \qquad \underline{\mbox{G-S}} \\
a \left( \epsilon_1^{(n+1)}+\alpha_1 \right)= e_1-b \left(\epsilon_2^{(n)}+\alpha_2 \right) & \qquad a \left(\epsilon_1^{(n+1)}+\alpha_1 \right)= e_1-b \left(\epsilon_2^{(n)}+\alpha_2 \right) \\
d \left(\epsilon_2^{(n+1)}+\alpha_2 \right)= e_2-c \left(\epsilon_1^{(n)}+\alpha_1 \right) & \qquad d \left(\epsilon_2^{(n+1)}+\alpha_2 \right)= e_2-c \left(\epsilon_1^{(n+1)}+\alpha_1 \right)
\end{matrix}</math>
 
באמצעות המשוואות הנ"ל נוכל למצוא קשר בין שתי שגיאות עוקבות:
(להשלים)
 
===שיטת Successive Over-Relaxation===