Messkette Kamera: Unterschied zwischen den Versionen
Keine Bearbeitungszusammenfassung |
Keine Bearbeitungszusammenfassung |
||
Zeile 11: | Zeile 11: | ||
Im Falle der polynomischen Regression vom Grad 2 wird die Funktion | Im Falle der polynomischen Regression vom Grad 2 wird die Funktion | ||
<math>\hat{y} = a \cdot \hat{x^{2}} + b \cdot \hat{x}+ c</math> | <math>\hat{y} = a \cdot \hat{x^{2}} + b \cdot \hat{x}+ c</math> | ||
unter der Bedingung gesucht, dass die Funktion | unter der Bedingung gesucht, dass die Funktion | ||
<math>V(a,b,c) = \sum_{i=1}^k (y_i-\hat{y_i})^2 = \sum_{i=1}^k(y_i-a \cdot x_i^2-b \cdot x_i - c)^2\qquad(1)</math> <br> | |||
der Summe der Quadrate der Abstände der tatsächlichen y-Werte von berechneten <math>\hat{y}</math> -Werten ein Minimum hat. | der Summe der Quadrate der Abstände der tatsächlichen y-Werte von berechneten <math>\hat{y}</math> -Werten ein Minimum hat. | ||
Zur Bestimmung der Konstanten <math> a,b,c </math> in Gleichung (1) werden die partiellen Ableitungen <math>\frac{\partial V}{\partial a} </math>, <math>\frac{\partial V}{\partial b} </math> und <math>\frac{\partial V}{\partial c} </math> gleich null gesetzt, um jeweils das minimum zu erhalten:<br> | Zur Bestimmung der Konstanten <math> a,b,c </math> in Gleichung (1) werden die partiellen Ableitungen <math>\frac{\partial V}{\partial a} </math>, <math>\frac{\partial V}{\partial b} </math> und <math>\frac{\partial V}{\partial c} </math> gleich null gesetzt, um jeweils das minimum zu erhalten:<br> | ||
Partielle Ableitung nach <math>a</math>: | Partielle Ableitung nach <math>a</math>: | ||
<math> \longrightarrow \frac{\partial V(a,b,c)}{\partial a}=2 \cdot \sum_{i=1}^k(y_i-a \cdot x_i^2-b \cdot x_i - c) \cdot (-x_i^2) </math> | <math> \longrightarrow \frac{\partial V(a,b,c)}{\partial a}=2 \cdot \sum_{i=1}^k(y_i-a \cdot x_i^2-b \cdot x_i - c) \cdot (-x_i^2) </math> | ||
dividiert durch <math> k </math> ergibt: <math> \quad \overline{y_i x_i^2 } = a \cdot \overline{x_i^4 } + b \cdot \overline{x_i^3 } + c \cdot \overline{x_i^2 } \qquad (2) </math> | dividiert durch <math> k </math> ergibt: <math> \quad \overline{y_i x_i^2 } = a \cdot \overline{x_i^4 } + b \cdot \overline{x_i^3 } + c \cdot \overline{x_i^2 } \qquad (2) </math> | ||
Partielle Ableitung nach <math>b</math>:<br> | Partielle Ableitung nach <math>b</math>:<br> | ||
<math> \longrightarrow \frac{\partial V(a,b,c)}{\partial b}=2 \cdot \sum_{i=1}^k(y_i-a \cdot x_i^2-b \cdot x_i - c) \cdot (-x_i) </math> | |||
<math> \longrightarrow \frac{\partial V(a,b,c)}{\partial b}=2 \cdot \sum_{i=1}^k(y_i-a \cdot x_i^2-b \cdot x_i - c) \cdot (-x_i) </math> | |||
dividiert durch <math> k </math> ergibt: <math> \quad \overline{y_i x_i} = a \cdot \overline{x_i^3 } + b \cdot \overline{x_i^2 } + c \cdot \overline{x_i } \qquad (3) </math> | dividiert durch <math> k </math> ergibt: <math> \quad \overline{y_i x_i} = a \cdot \overline{x_i^3 } + b \cdot \overline{x_i^2 } + c \cdot \overline{x_i } \qquad (3) </math> | ||
Partielle Ableitung nach <math>c</math>:<br> | Partielle Ableitung nach <math>c</math>:<br> | ||
<math> \longrightarrow \frac{\partial V(a,b,c)}{\partial c}=2 \cdot \sum_{i=1}^k(y_i-a \cdot x_i^2-b \cdot x_i - c) \cdot (-1) </math> | <math> \longrightarrow \frac{\partial V(a,b,c)}{\partial c}=2 \cdot \sum_{i=1}^k(y_i-a \cdot x_i^2-b \cdot x_i - c) \cdot (-1) </math> | ||
dividiert durch <math> k </math> ergibt: <math> \quad \overline{y_i} = a \cdot \overline{x_i^2} + b \cdot \overline{x_i} + c \qquad (4) </math> | dividiert durch <math> k </math> ergibt: <math> \quad \overline{y_i} = a \cdot \overline{x_i^2} + b \cdot \overline{x_i} + c \qquad (4) </math> | ||
Es entsteht wieder ein lineares Gleichungssystem in drei Variablen <math>a,b,c</math>,dessen Lösung die optimalen Konstanten liefert: | Es entsteht wieder ein lineares Gleichungssystem in drei Variablen <math>a,b,c</math>,dessen Lösung die optimalen Konstanten liefert: | ||
<math> a = {{a | <math> a = {{(\overline{y_i x_i^2} - \overline{y_i} \cdot \overline{x_i^2}) \cdot (\overline{x_i^2} -(\overline{x_i})^2)-(\overline{y_i x_i}- \overline{y_i} \cdot \overline{x_i}) \cdot (\overline{x_i^3}-\overline{x_i} \cdot \overline{x_i^2})} \over {(\overline{x_i^4}-(\overline{x_i^2})^2) \cdot (\overline{x_i^2}-(\overline{x_i})^2)-(\overline{x_i^3}-\overline{x_i} \cdot \overline{x_i^2})^2}}</math> | ||
<math> b = {{\overline{y_i x_i}-\overline{y_i} \cdot \overline{x_i} - a \cdot (\overline{x_i^3} - \overline{x_i} \cdot \overline{x_i^2}) } \over {\overline{x_i^2}-(\overline{x_i})^2}}</math> | |||
<math> c = \overline{y_i} - a \cdot \overline{x_i^2} - b \cdot \overline{x_i} </math> | |||
Version vom 27. April 2021, 20:50 Uhr
Autor: Junjie Lyu
Betreuer: Prof. Schneider
Einleitung
In diesem Artikel wird ein Spurpolynom des Carolo Cup Fahrzeugs beschrieben. Daher befasst sich dieser Artikel mit der Berechnung des Spurpolynoms.
Regressionsanalyse[1]
Anleitung
Ziel der Regressionsanalyse am häugigsten ist es, Beziehung zwischen einer abhängigen und einer oder mehreren unabhängigen Variable festzustellen, um ein Vorhersagemodell zu erstellen. Wenn nun zusätzliche Werte x ohne zugehörigen Wert y vorliegen, dann kann das angepasste Modell zur Vorhersage des Wertes von y verwendet werden.
Polynomische Regression
Im Falle der polynomischen Regression vom Grad 2 wird die Funktion unter der Bedingung gesucht, dass die Funktion
der Summe der Quadrate der Abstände der tatsächlichen y-Werte von berechneten -Werten ein Minimum hat.
Zur Bestimmung der Konstanten in Gleichung (1) werden die partiellen Ableitungen , und gleich null gesetzt, um jeweils das minimum zu erhalten:
Partielle Ableitung nach : dividiert durch ergibt:
Partielle Ableitung nach :
dividiert durch ergibt:
Partielle Ableitung nach :
dividiert durch ergibt:
Es entsteht wieder ein lineares Gleichungssystem in drei Variablen ,dessen Lösung die optimalen Konstanten liefert:
Offline Modell
Online Modell
Literatur
→ zurück zum übergeordneten Artikel: Systemarchitektur des Fahrzeugs
→ zurück zum Hauptartikel: Praktikum SDE