Optimale Stopping-Strategie bei sequenzieller Auswahl
Szenario: Sie mĂŒssen aus n Bewerbern den besten auswĂ€hlen. Die Bewerber erscheinen nacheinander in zufĂ€lliger Reihenfolge. Nach jedem GesprĂ€ch mĂŒssen Sie sofort entscheiden: annehmen oder ablehnen (keine RĂŒckkehr zu frĂŒheren Kandidaten).
Ziel: Finden Sie eine Strategie, die die Wahrscheinlichkeit maximiert, den besten Kandidaten auszuwÀhlen!
Schwierigkeit: â
Setze k=0 und fĂŒhre mehrere Einzelsimulationen durch.
Schwierigkeit: â
Setze n=10 und k=9.
Schwierigkeit: ââ
Finde fĂŒr n=10 das beste k durch systematisches Ausprobieren.
Schwierigkeit: ââ
Untersuche, wie sich die Strategie mit wachsendem n verhÀlt.
Schwierigkeit: âââ
Vergleiche die beiden Optimierungsziele.
Schwierigkeit: ââ
Analysiere die Rangverteilung bei n=10, k=4.
Schwierigkeit: ââ
Untersuche, wie oft man die schlechtesten Kandidaten erwischt.
Schwierigkeit: âââ
Vergleiche drei Strategien systematisch bei n=20:
Erstelle eine Vergleichstabelle mit: Erfolgsrate, RMSE, Top-3-Rate, Durchschnittsrang, Medianrang
Welche Strategie wĂŒrdest du in der Praxis empfehlen? BegrĂŒnde!
Schwierigkeit: âââ
Die 37%-Regel ist asymptotisch (fĂŒr nââ). Was passiert bei kleinem n?
Schwierigkeit: âââ
Szenario: Du suchst eine Wohnung und kannst 20 Besichtigungen machen. Du musst dich nach jeder Besichtigung sofort entscheiden (ja/nein), kannst nicht zurĂŒck zu frĂŒheren Wohnungen.
Beobachtung: FĂŒhre dieselbe Simulation mehrmals durch:
Konzept: Die empirische Wahrscheinlichkeit (relative HÀufigkeit) nÀhert sich bei wachsender Anzahl von Versuchen der theoretischen Wahrscheinlichkeit an.
Didaktischer Wert: Visualisierung des abstrakten Konzepts durch direkte Erfahrung. Das Konfidenzintervall zeigt die Unsicherheit bei endlichen Stichproben.
Problem: Was bedeutet "optimal"? Das hÀngt vom Ziel ab!
Didaktischer Wert: Zeigt, dass Optimierung kontextabhĂ€ngig ist. Verschiedene Zielfunktionen fĂŒhren zu verschiedenen optimalen Strategien. Wichtig fĂŒr Modellierungskompetenz!
Motivation ĂŒber das Secretary Problem:
Bei n=10 und verschiedenen k sehen wir: Die RÀnge streuen zwischen 1 und 10. Aber die Spannweite ist immer gleich (9) - wenig aussagekrÀftig!
Besser: Wie weit sind die RĂ€nge im Durchschnitt vom optimalen Rang (1) entfernt?
MAD = E[|Rang - 1|] = Durchschnittsrang - 1
Hinweis: Diese Metrik zeigt die Simulation bereits an als "Durchschn. Rang"! MAD ist einfach dieser Wert minus 1.
Problem: Behandelt kleine und groĂe Fehler gleich. Ist Rang 2 wirklich so schlimm wie der Unterschied zwischen Rang 9 und 10?
Die quadratische Abweichung bestraft groĂe Fehler stĂ€rker:
RMSE = â(E[(Rang-1)ÂČ])
Beispiel bei n=10:
| Rang | Abweichung | Quadr. Abw. |
| 1 (optimal) | 0 | 0 |
| 2 (gut) | 1 | 1 |
| 5 (mittelmĂ€Ăig) | 4 | 16 â 4Ă so schwer! |
| 10 (katastrophal) | 9 | 81 â 81Ă so schwer! |
Didaktischer Wert:
Optimales k: k â n/e â 0,368 · n
Erfolgswahrscheinlichkeit: P(Erfolg) â 1/e â 37%
FĂŒr nââ konvergiert die optimale Strategie zur 37%-Regel