المرجع الالكتروني للمعلوماتية
المرجع الألكتروني للمعلوماتية

الرياضيات
عدد المواضيع في هذا القسم 9761 موضوعاً
تاريخ الرياضيات
الرياضيات المتقطعة
الجبر
الهندسة
المعادلات التفاضلية و التكاملية
التحليل
علماء الرياضيات

Untitled Document
أبحث عن شيء أخر المرجع الالكتروني للمعلوماتية
{افان مات او قتل انقلبتم على اعقابكم}
2024-11-24
العبرة من السابقين
2024-11-24
تدارك الذنوب
2024-11-24
الإصرار على الذنب
2024-11-24
معنى قوله تعالى زين للناس حب الشهوات من النساء
2024-11-24
مسألتان في طلب المغفرة من الله
2024-11-24

الكون والمادة
2023-08-09
الخباز (الخبيز)
9-4-2017
انفلاق البيضة
14-4-2016
الحقوق التي يتحرر منها العقار
10-5-2016
محمد بن وُهيب
30-12-2015
التمايز الحياتي للسلوك Biological Differentiation of Behavior
11-8-2021

LINEAR TIME-OPTIMAL CONTROL-THE MAXIMUM PRINCIPLE FOR LINEAR TIME-OPTIMAL CONTROL  
  
398   02:27 مساءاً   date: 8-10-2016
Author : Lawrence C. Evans
Book or Source : An Introduction to Mathematical Optimal Control Theory
Page and Part : 32-36

The really interesting practical issue now is understanding how to compute an optimal control α(.).

DEFINITION. We define K(t, x0) to be the reachable set for time t. That is,  K(t, x0) = {x1| there exists α(.) ∈ A which steers from x0 to x1at time t}.

Since x(.) solves (ODE), we have x1 ∈ K(t, x0) if and only if

for some control α(.) ∈ A.

THEOREM 1.1 (GEOMETRY OF THE SET K). The set K(t, x0) is convex and closed.

Proof. 1. (Convexity) Let x1, x2 ∈ K(t, x0). Then there exists α12 ∈ A such that

and hence λx1 + (1 − λ)x2 ∈ K(t, x0).

2. (Closedness) Assume xk ∈ K(t, x0) for (k = 1, 2, . . . ) and xk → y. We must show y ∈ K(t, x0). As xk ∈ K(t, x0), there exists αk(.) ∈ A such that

According to Alaoglu’s Theorem, there exist a subsequence kj → ∞ and α ∈ Asuch that αk⇀α. Let k = kj → ∞ in the expression above, to find

Thus y ∈ K(t, x0), and hence K(t, x0) is closed.

NOTATION. If S is a set, we write ∂S to denote the boundary of S.

Recall that τ denotes the minimum time it takes to steer to 0, using the optimal control α. Note that then 0 ∈ ∂K(τ, x0).

THEOREM 1.2 (PONTRYAGIN MAXIMUM PRINCIPLE FOR LINEAR TIME-OPTIMAL CONTROL). There exists a nonzero vector h such that

for each time 0 ≤ t ≤ τ.

INTERPRETATION. The significance of this assertion is that if we know h then the maximization principle (M) provides us with a formula for computing α(.), or at least extracting useful information.

We will see in the next chapter that assertion (M) is a special case of the general Pontryagin Maximum Principle.

Proof. 1. We know 0 ∈ ∂K(τ , x0). Since K( , x0) is convex, there exists a supporting plane to K(τ, x0) at 0; this means that for some g = 0, we have

                              g. x1 ≤ 0 for all x1 ∈ K(τ, x0 ).

2. Now x1 ∈ K(τ, x0) if and only if there exists α(.) ∈ A such that

Since g . x1 ≤ 0, we deduce that

for all controls α(.) ∈ A.

3. We claim now that the foregoing implies

for almost every time s.

For suppose not; then there would exist a subset E ⊂ [0, τ] of positive measure,  such that

for s ∈ E. Design a new control αˆ (.) as follows:

where α(s) is selected so that

This contradicts Step 2 above.

For later reference, we pause here to rewrite the foregoing into different notation;  this will turn out to be a special case of the general theory developed later in Chapter

4. First of all, define the Hamiltonian

                                 H(x, p, a) := (Mx + Na) .p            (x, p ∈ Rn, a ∈ A).

THEOREM 1.3 (ANOTHER WAY TO WRITE PONTRYAGIN MAXIMUM PRINCIPLE FOR TIME-OPTIMAL CONTROL). Let α(.) be a time

optimal control and x(.) the corresponding response.

Then there exists a function p(.) : [0, τ] → Rn, such that

We call (ADJ) the adjoint equations and (M) the maximization principle. The function p(.) is the costate.

Proof. 1. Select the vector h as in Theorem 1.2, and consider the system

The solution is

and hence

2. We know from condition (M) in Theorem 1.2 that

3. Finally, we observe that according to the definition of the Hamiltonian H,

the dynamical equations for x(.), p(.) take the form (ODE) and (ADJ), as stated in the Theorem.

References

[B-CD] M. Bardi and I. Capuzzo-Dolcetta, Optimal Control and Viscosity Solutions of Hamilton-Jacobi-Bellman Equations, Birkhauser, 1997.

[B-J] N. Barron and R. Jensen, The Pontryagin maximum principle from dynamic programming and viscosity solutions to first-order partial differential equations, Transactions AMS 298 (1986), 635–641.

[C1] F. Clarke, Optimization and Nonsmooth Analysis, Wiley-Interscience, 1983.

[C2] F. Clarke, Methods of Dynamic and Nonsmooth Optimization, CBMS-NSF Regional Conference Series in Applied Mathematics, SIAM, 1989.

[Cr] B. D. Craven, Control and Optimization, Chapman & Hall, 1995.

[E] L. C. Evans, An Introduction to Stochastic Differential Equations, lecture notes avail-able at http://math.berkeley.edu/˜ evans/SDE.course.pdf.

[F-R] W. Fleming and R. Rishel, Deterministic and Stochastic Optimal Control, Springer, 1975.

[F-S] W. Fleming and M. Soner, Controlled Markov Processes and Viscosity Solutions, Springer, 1993.

[H] L. Hocking, Optimal Control: An Introduction to the Theory with Applications, OxfordUniversity Press, 1991.

[I] R. Isaacs, Differential Games: A mathematical theory with applications to warfare and pursuit, control and optimization, Wiley, 1965 (reprinted by Dover in 1999).

[K] G. Knowles, An Introduction to Applied Optimal Control, Academic Press, 1981.

[Kr] N. V. Krylov, Controlled Diffusion Processes, Springer, 1980.

[L-M] E. B. Lee and L. Markus, Foundations of Optimal Control Theory, Wiley, 1967.

[L] J. Lewin, Differential Games: Theory and methods for solving game problems with singular surfaces, Springer, 1994.

[M-S] J. Macki and A. Strauss, Introduction to Optimal Control Theory, Springer, 1982.

[O] B. K. Oksendal, Stochastic Differential Equations: An Introduction with Applications, 4th ed., Springer, 1995.

[O-W] G. Oster and E. O. Wilson, Caste and Ecology in Social Insects, Princeton UniversityPress.

[P-B-G-M] L. S. Pontryagin, V. G. Boltyanski, R. S. Gamkrelidze and E. F. Mishchenko, The Mathematical Theory of Optimal Processes, Interscience, 1962.

[T] William J. Terrell, Some fundamental control theory I: Controllability, observability,  and duality, American Math Monthly 106 (1999), 705–719.




الجبر أحد الفروع الرئيسية في الرياضيات، حيث إن التمكن من الرياضيات يعتمد على الفهم السليم للجبر. ويستخدم المهندسون والعلماء الجبر يومياً، وتعول المشاريع التجارية والصناعية على الجبر لحل الكثير من المعضلات التي تتعرض لها. ونظراً لأهمية الجبر في الحياة العصرية فإنه يدرّس في المدارس والجامعات في جميع أنحاء العالم. ويُعجب الكثير من الدارسين للجبر بقدرته وفائدته الكبيرتين، إذ باستخدام الجبر يمكن للمرء أن يحل كثيرًا من المسائل التي يتعذر حلها باستخدام الحساب فقط.وجاء اسمه من كتاب عالم الرياضيات والفلك والرحالة محمد بن موسى الخورازمي.


يعتبر علم المثلثات Trigonometry علماً عربياً ، فرياضيو العرب فضلوا علم المثلثات عن علم الفلك كأنهما علمين متداخلين ، ونظموه تنظيماً فيه لكثير من الدقة ، وقد كان اليونان يستعملون وتر CORDE ضعف القوسي قياس الزوايا ، فاستعاض رياضيو العرب عن الوتر بالجيب SINUS فأنت هذه الاستعاضة إلى تسهيل كثير من الاعمال الرياضية.

تعتبر المعادلات التفاضلية خير وسيلة لوصف معظم المـسائل الهندسـية والرياضـية والعلمية على حد سواء، إذ يتضح ذلك جليا في وصف عمليات انتقال الحرارة، جريان الموائـع، الحركة الموجية، الدوائر الإلكترونية فضلاً عن استخدامها في مسائل الهياكل الإنشائية والوصف الرياضي للتفاعلات الكيميائية.
ففي في الرياضيات, يطلق اسم المعادلات التفاضلية على المعادلات التي تحوي مشتقات و تفاضلات لبعض الدوال الرياضية و تظهر فيها بشكل متغيرات المعادلة . و يكون الهدف من حل هذه المعادلات هو إيجاد هذه الدوال الرياضية التي تحقق مشتقات هذه المعادلات.