EIG025 Gesetz der kleinen Zahlen

avatar
Thomas Kahle

Ständig sollen die kleinen Zahlen irgendeine Gesetzmäßigkeit (nicht) erfüllen und das schaffen sie einfach nicht, denn sie sind zu wenige. Dieses Gesetz der kleinen Zahlen führt zu falschen Vermutungen in der Mathematik und mangelnder Aussagekraft von wiederholten Experimenten in der Psychologie und Sozialwissenschaft. Das hat vielleicht auch zur Reproduzierbarkeitskrise geführt. Davor ist die Mathematik doch aber sicher, oder? Wir besprechen zwei Gesetze der kleinen Zahlen und ihre Beziehung.

Feedback gerne auf Mastodon @Eigenraum@podcasts.social, an feedback (bei) eigenpod.de oder in die Kommentarspalte auf der Episodenseite.

Automatisch generiertes Transkript (nicht geprüft)
So, hallo zusammen, willkommen beim Eigenraum. Schön, dass ihr wieder eingeschaltet habt,
den Zahlensender eures Vertrauens. Und wir legen heute auch direkt los mit einer Zahl,
der 41. Die 41 ist eine Primzahl, wie ihr sicher wisst oder leicht überprüfen könnt.
Und jetzt kann man folgendes machen. Man kann zwei dazu addieren und erhält noch
eine Primzahl, die 43. Nämlich, das sind Primzahlzwinnige, Primzahlen, die nur zwei
auseinander sind. Okay, jetzt nehmen wir diese 43 und addieren noch vier dazu.
Da erhalten wir 47. Wieder eine Primzahl. Und dann addieren wir mal sechs dazu.
Erhalten wir, Moment, was? 47 plus 6, 53. Wieder eine Primzahl. Und dann addieren wir mal 8 dazu,
dann erhält man 61. Wieder eine Primzahl. Das ist aber nicht die nächste Primzahl,
dazwischen war nämlich noch die 59, was auch eine Primzahl ist. Also, so, wo waren wir jetzt? Ach ja,
61 und letztes Mal hatten wir 8 dazu addiert, jetzt addieren wir 10 dazu, das ergibt 71. Das
ist eine Primzahl. So, ihr seht schon, wohin das führt, oder? Ich nehme immer das letzte Ergebnis.
Und dann addiere ich die nächste gerade Zahl dazu und erhalte wieder eine Primzahl.
Also noch einmal, 71 plus die nächste gerade Zahl wäre jetzt 12, ist dran, ergibt 83.
Eine Primzahl. So.
Und das geht dann immer so weiter. Und die Aussage, dass das immer eine Primzahl ergibt, für die ist kein Beweis bekannt.
Das ist ja in der Zahlentheorie oft so, dass man so ganz leichte Aussagen hat, die sich
nur schwer beweisen lassen.
Zum Beispiel für Mars letzten Satz oder die Goldbach-Vermutung oder so. Und in
diesem Fall ist es auch so, dass man das nicht beweisen kann.
Der Grund ist aber, dass es nicht stimmt. Man kann das also eine Weile machen und
immer weiter, immer weiter, 39 Mal, um genau zu sein. Und dann kommt man zur 1601.
Und dann ist man dran und muss 80 dazu addieren und das ergibt 1681 und das.
Keine Primzahl mehr. Das ist 41 Quadrat und das was man hier vor sich sieht ist
so eine kleine Kuriosität, die Euler entdeckt hat. Diese einfache Bildungsvorschrift, genau genommen was wir da gemacht haben, ist 41 plus n plus n
Quadrat auszurechnen. Kann man sich mal überlegen auf einer,
Serviette oder einem alten Briefumschlag, den man nicht mehr braucht, dass das
Stimmt und in dieses 41 plus n plus n Quadrat habe ich jetzt eingesetzt 0, kriege ich die 41, dann 1, dann kriege ich die 43 und so weiter.
Und diese Bildungsvorschrift, die produziert 39 Primzahlen, aber die 40. ist dann keine Primzahl mehr.
Und das nennt man ein Eulers Prim erzeugendes Polynom.
Trotzdem hat man irgendwie das Gefühl, da ist man irgendwas auf der Spur.
Vor allen Dingen, während man da so rechnet. Also da muss doch irgendwas dahinter stecken.
Und warum hat man jetzt dieses Gefühl, da steckt irgendwas dahinter?
Man denkt, das kann doch irgendwie kein Zufall sein. Und es liegt vielleicht daran, dass unser Gehirn immer so auf der Suche nach Mustern ist.
Wir haben irgendwie so ein statistisches Denken oder so ein kausales Denken.
Menschen sehen überall Muster.
Und die sind ziemlich schlecht darin, intuitiv statistische Effekte zu verstehen.
Weil sie immer direkt einen physikalischen Grund suchen.
Da gibt es auch psychologische Untersuchungen zu. Kennen vielleicht einige dieses Buch Thinking Fast and Slow von Kahneman.
Eins der spannendsten Bücher, die ich je gelesen habe, würde ich mal sagen.
Er hat auch 2002 den Wirtschafts-Nobelpreis für seine Arbeiten bekommen und er beschreibt
die menschliche, das menschliche Denken mit so zwei Systemen, System 1, das ist irgendwie
intuitiv und versucht immer, jumping to the conclusion auf Englisch, also der macht sozusagen
voreilige Schlüsse und es geht über eine Kausalität, wenn es keine gibt und das ist
aber auch gut evolutionär, denn wenn man irgendwo ein Löwengeräusch hört, dann ist
ist es sicherlich erstmal nicht schlecht, sofort wegzurennen,
auch wenn sich hinterher herausstellt, dass das Löwengeräusch nur von einem Maulwurf kam
oder was weiß ich, also die Gefahr sich hinterher als nicht so groß herausstellt.
Ist es besser, den Fehler zu machen, einmal zu viel wegzulaufen und intuitiv zu reagieren und irgendwie eine Kausalität anzunehmen,
die nicht da ist.
Und dann werden wir Menschen aber ziemlich primitiv. Zum Glück haben wir noch in System 2 nach dieser Theorie.
Das tiefes Nachdenken und statistisches Argumentieren, mathematisches Argumentieren ermöglicht und in dem man dann auch
Wahrscheinlichkeiten berechnen kann und Mathematik machen kann. Zusammen mit
seinem Co-Autor Amos Tversky hat Kahnemann diese Prospect Theory entwickelt,
heißt das, und die hätten bestimmt auch was zu sagen zu unserem Primzahlbeispiel
oben, Eulers primzahl erzeugenden Polynom. Aber haben sie nicht. Leider gibt es
keine Literatur darüber, wie sie Euler lesen und das Primzahlerzeugende Polynom kommentieren.
Aber sie haben ein Paper geschrieben, das heißt Belief in the Law of Small Numbers,
der Glaube an das Gesetz der kleinen Zahlen. Und in dem beschreiben sie schon 1971 die
fehlerhafte Intuition.
Über was Statistik mit kleinen Zahlen eigentlich aussagt. Also im Abstract schreiben sie, Menschen haben fehlerhafte Intuitionen
über die Gesetze des Zufalls.
Insbesondere betrachten sie eine zufällig aus einer Population gezogene Stichprobe als hochrepräsentativ.
Das heißt, in allen wesentlichen Merkmalen, ähnlich der gesamten Population.
Warum machen Menschen das?
Selbst Menschen, die an ihr System 2 glauben, machen so was.
Denn sie kennen vielleicht das Gesetz der großen Zahlen.
Das Gesetz der großen Zahlen ist, Wenn die Stichprobe nur groß genug ist, dann gibt sie wieder, was in der Population so
für Effekte vorliegen.
Das würde man als das Gesetz der großen Zahlen bezeichnen. Und das Gesetz der kleinen Zahlen ist jetzt die fehlerhafte Anwendung des Gesetzes der
großen Zahlen auf kleine Stichproben.
Und was eine kleine Stichprobe ist und was eine große Stichprobe ist, dafür gibt es
eben Sampling-Theorie und das ist so ein typisches mathematisches System 2 argumentieren, was,
uns eben schwerfällt. Also ein Beispiel, was sie da in ihrem Paper zitieren, ist immer
wieder diese, was ist die Wahrscheinlichkeit, ein experimentelles Ergebnis zu wiederholen.
Also die sind Psychologen und dann haben die auch so psychologisch immer so ganz trickreiche,
Beispiele. Da geben sie so ein ausführliches Beispiel an, wo auch noch ausbenutzt wird.
Also da befragen sie so Profs und LehrerInnen, die Statistik unterrichten und die sind dann.
Konfrontiert in diesem Fragebogen mit so Antworten und Arbeiten, statistischen Arbeiten, die
Doktorandinnen und Doktoranden gemacht haben.
Und das geht ungefähr so, der Doktorand macht irgendwie so ein aufwendiges Experiment, das
hat irgendwie Samples heißt 40 und hat einen Haufen Variablen untersucht und die sind alle
inkonklusiv, aber eine hat so einen total spannenden Effekt.
Und das Experiment ist auch total aufwendig, also diese 40 Samples zu untersuchen hat irgendwie ein Jahr gedauert.
Und man hat bei einer Variable so einen überraschenden, statistisch signifikanten Effekt und alle anderen Variablen sind unauffällig.
So, und dann werden die Profs gefragt, was man jetzt damit machen soll.
Und die meisten empfehlen da einfach eine Wiederholung.
Und weil das teuer war, diese 40 Samples zu bekommen, sagen wir mal jetzt mit 20 Samples.
Also einfach die Hälfte. Ja, um ein bisschen kosteneffizient zu arbeiten.
So, die Testtheorie sagt jetzt aus, dass man jetzt eigentlich nur noch mit diesen 20 Samples
eine 50-50 Chance hat, den Effekt, den man im ersten Experiment beobachtet hat, überhaupt zu replizieren.
Selbst wenn der Effekt wirklich da ist, einfach aus dem statistischen Mechanismus heraus, ist man mit der halben Samplesize erstmal
die Informationsgehalt aus dem Sample stark reduziert.
Aber der Glaube an die Aussagekraft dieses kleinen Samples, der würde alles verwerfen lassen. Also wenn man jetzt bei dem kleinen Sample
sieht, dass der gegenteilige Effekt eintritt oder der Effekt nicht mehr eintritt,
würde man zu dem Schluss kommen, aha, bei dem ersten Experiment ist irgendwas schief gelaufen.
Und das ist eben fehlerhaft. Es könnte ein spektakulärer Effekt sein und es gibt dann noch so eine Folgefrage und in der Folgefrage wird dann so jetzt angegeben,
okay, jetzt wurde das Experiment wiederholt mit 20 Samples und der Effekt war jetzt etwas kleiner und statistisch nicht mehr ganz signifikant.
Was würden Sie jetzt raten? Und niemand in dieser Studie, die die da gemacht haben, hat geantwortet, jetzt mal die Daten zusammentun und eine Gesamtanalyse daraus zu machen
zu machen und daraus diesen Effekt als existent zu postulieren, sondern die
meisten sahen es jetzt als Bestätigung dafür, dass etwas schief gelaufen ist bei
dem ersten Experiment und dass es diesen Effekt nicht gibt, während aber natürlich,
eigentlich die 20 weiteren Samples, auch wenn es jetzt statistisch nicht signifikant war, was aber in der kleinen Samplegröße liegen kann.
Zusätzliche Evidenz für diesen Effekt bietet. Und das ist ja so ihr großes Thema, dass Menschen eben schlecht sind, darin einzuschätzen, wie Zufall
funktioniert, ohne eben ihr System 2 zu aktivieren und
eine auf Überlegung und mathematische Analyse basierende Entscheidung zu treffen.
Wenn sie intuitiv handeln, schätzen sie Zufall. Wenn man einen Würfel wirft und drei Sechsen in Folge hatte, erwartet man doch irgendwie,
dass nicht noch eine Sechs kommt, ja?
Welches Kind hat dieses Argument beim Mensch ärgere dich nicht spielen nicht schon verwendet?
So, diese Fehleinschätzung von Zufall, die weitet sich auch aus auf das Erzeugen von Zufall.
Weil wenn Menschen zum Beispiel versuchen, irgendwie zufällige Folgen zu erzeugen,
sind sie dabei unglaublich schlecht, weil sie immer versuchen, diesen Mittelwert einzuhalten.
Kann man ein ganz einfaches Experiment machen, habe ich auch mal programmiert
für irgendeine lange Nacht der Wissenschaften vor zehn Jahren oder so.
Man lässt einfach Menschen eine zufällige Folge von Nullen und Einsen eingeben
und dann einen Computer raten, was der Mensch als nächstes eingibt.
Und das könnte man natürlich jetzt irgendwie mit Machine Learning machen oder so.
Aber dieses Python-Programm, was ich damals mal geschrieben hatte,
das schaut sich einfach die letzten drei Eingaben an
und rät basierend auf der bisherigen Historie die wahrscheinlichste Fortsetzung der Folge der letzten drei Zahlen.
Und die Menschen sind eben so, dass sie da Korrelationen einbauen.
Sie sind nicht komplett zufällig. Nach 0, 0, 0 kommt eben wahrscheinlicher eine 1 als nach 1, 1, 1.
Zufällige Zahlenfolge von 0 und 1, bei der 0 und 1 genau gleich häufig vorkommen sollen, mit der gleichen Wahrscheinlichkeit unabhängig erzeugt
werden sollen. Da kommen längere Folgen von 1 und 0 vor, als die Menschen so
denken und kaum jemand schreibt dann sozusagen eine lange Folge von 1 dahin.
Aber selbst wenn man eine lange Folge von 1 dahin schreibt, würde mein Programm dann auch
wieder ziemlich schnell darauf kommen, dass man das so tut und richtig raten.
Naja.
Also das hat ja dann irgendwie so eine reproducibility crisis in der psychologie gegeben, also die,
Fehlbedienung von Statistik ist ein Treiber der Reproduzierbarkeitskrise.
Da gibt es so ein ganz konkretes Experiment, das reproducibility project lief 2011 bis 15 und hat versucht 100 Studien,
die alle 2008 erschienen sind, in der Psychologie zu reproduzieren.
Also einfach nochmal so genau wie möglich das Experiment, was in einem Paper beschrieben wird, nochmal zu machen.
Und zu schauen, ob man den gleichen Effekt reproduzieren kann.
Und da kam der schockierende Wert heraus, dass 36,1% der Ergebnisse reproduziert werden konnten.
Also etwas mehr als ein Drittel. Und von denen, die reproduziert werden konnten, waren die Effekte auch oft kleiner als in
den Originalstudien.
Da kann man sich natürlich jetzt fragen, woran das liegt.
Und die Benutzung von Statistik und die Intuition, die wir über Statistik haben, ist wahrscheinlich
ein Treiber davon. Und das ist noch nicht völlig aufgelöst. Also die Psychologie und
auch andere Sozialwissenschaften haben da, glaube ich, ganz schön mit zu kämpfen, dass.
Sie in den Grundfesten ihrer Wissenschaft, der statistischen Analyse, arbeiten müssen,
rütteln müssen oder sehen, wie man da weiterkommt. Kann man sich natürlich fragen, ob die Mathematik
völlig immun dagegen ist. So, wenn man mathematisches Ergebnis ist, ist es vielleicht ein Beweis
Und der Beweis ist entweder korrekt oder nicht korrekt.
Und das größte Risiko in der Mathematik ist sicherlich, dass die veröffentlichte Literatur falsche Beweise enthält.
Also, das sind dann eben natürlich keine Beweise, aber falsche Versuche von Beweisen, die unentdeckt bleiben.
Und das passiert natürlich, weil die Referees sind wenige, die sind überarbeitet, sind unter Zeitdruck.
Und da passieren Fehler. Es gibt zum Beispiel in Annals of Mathematics,
meisten Leute als das beste Journal für Mathematik.
Bezeichnen. Mehrere Paper, zwei Paper, um genau zu sein, die gegenteilige Aussagen beweisen.
Und das ist bis heutzutage nicht aufgelöst, welches von denen richtig ist.
Und das hat auch einen großen Schub, also solche Beobachtungen hat einen großen Schub
für die Formalisierung der Mathematik gegeben, also wenn man zumindest,
die Beweise mit dem Computer überprüfen kann. Also Mathematik ist natürlich auch nicht immun gegen Fehler,
aber dieses Springen zu voreiligen Schlüssen.
Ist genau das, was wir machen, wenn wir Mathematik machen.
Mathematik ist mehr eine experimentelle Wissenschaft, als man denkt.
Und da ist mein kleine Zahlen-Primzahl-Beispiel von oben eben symptomatisch dafür.
Man könnte jetzt sehr viel Zeit verschwenden damit, wenn man 38 Beispiele überprüft hat,
diesen Fakt zu beweisen.
Nun ist es bei diesen Primzahlen so, dass es auch ein anderes Resultat gibt,
das zeigt, dass kein Polynom immer nur Primzahlen als Werte haben kann.
Ist auch schon altes Resultat von Goldbach, glaube ich. Aber bei komplizierteren Beispielen.
Wo die numerische Evidenz vielleicht noch besser ist oder noch teurer zu bekommen, könnte man zu.
Falschen Schlüssen kommen und versuchen, diese zu beweisen und dann einen subtilen Fehler in den
Beweis machen und hätte auch sich leiten lassen vom Gesetz der kleinen Zahlen. Auf der anderen Seite
kann man natürlich diese kleinen Zahlen nicht komplett ignorieren. Also wir arbeiten einfach
intuitiv, ja? Also Mathematik ist das Erkennen von Mustern und dann das Beweisen der Muster.
Also sind wir da auch irgendwie in der Zwickmühle. Wir müssen es nutzen, aber man muss eben
vorsichtig sein. Mein Kleine-Zahlen-Prima-Zahl-Beispiel von oben habe ich übrigens aus einem Artikel
von Martin Gardner und den kennen bestimmt auch viele. Der war von den 50ern bis in die
80er Jahre ein Kolumnist im Scientific American und hat da diese Kolumne Mathematical Games
geschrieben. Das ist so eine richtige Schatzkiste für Mathematik. In der ersten Ausgabe dieser
Kolumne gab es übrigens diese Hexaflexagons, die aus der Sommerfolge des Eigenraums vielleicht
noch bekannt sind. Und da gab es auch so Sammelbände. Also in einem The Last Creations findet man
eine erweiterte Kolumne von einem Artikel namens Strong Laws of Small Primes, wo lauter so
kuriose Primzahlergebnisse drin sind. Zum Beispiel, wenn man die Zahl 3 nimmt, ist es
Primzahl. Wenn man die Zahl 31 nimmt, ist es eine Primzahl. Wenn man die Zahl 331 nimmt, ist es eine Primzahl.
Wenn man die Zahl 3331 nimmt, ist es eine Primzahl. Wenn man die Zahl 33331 nimmt, ist es eine Primzahl.
Und wenn man dann noch eine 3 da vorne anfügt, ist es wieder eine Primzahl. Wenn man noch eine 3 da vorne anfügt, ist es wieder eine Primzahl.
Wenn man noch eine 3 da vorne anfügt, ist man wieder eine Primzahl. Und wenn man dann noch eine 3 da vorne wieder anfügt,
dann ist es keine Primzahl mehr, sondern durch 17 teilbar.
Ja, und so Sachen hat er da gesammelt.
Und es gibt eigentlich für das meiste so einfache Erklärungen, also das mit den dreien eben, das sind eben spezielle Zahlen,
so dass man mit den einfachen Teilbarkeitsregeln gleich die meisten Teiler ausschließen kann,
zum Beispiel alle Primzahlen unter 17 ausschließen und dann dauert es eben ein bisschen, bis man da ein Gegenbeispiel findet.
Also die Primzahlen, die in dieser Folge sind, sind ja auch nur, kurz nachzählen, 8 Stück und die 9. Zahl ist schon ein Gegenbeispiel.
Fermatische Primzahlen aus der letzten Folge, kennen wir fünf Beispiele und sogar Pierre de Fermat ist drauf reingefallen.
Und es gibt noch viele andere lustige Vermutungen, zum Beispiel Gilbreth's Conjecture, will ich jetzt nochmal sagen, die ist wirklich offen, da kennen wir kein Gegenbeispiel.
Schreibt man die Primzahlen, also der Reihe nach, in einer Reihe so und darunter bildet man dann die Differenzen von den Primzahlen.
Ja, also fängt an mit 2, 3, 5 und die Differenzen sind dann 1, 2 und so weiter.
Und darunter schreibt man dann wieder die Differenzen zwischen diesen Differenzen.
Oder sagen wir mal die Absolutbeträge von denen. Also wenn es negativ ist, dann einfach nur die Zahl.
Und darunter schreibt man wieder die Differenzen und darunter schreibt man wieder die Differenzen.
Und weil die Primzahlfolge unendlich ist, hat man also jetzt lauter unendliche Folgen erzeugt.
Und diese Vermutung sagt, dass alle diese Folgen mit 1 beginnen.
Okay, zum Beispiel die Primzahlfolge fängt an 2, 3. das heißt die erste Differenz ist 1. Und dann geht es weiter, also 2, 3, 5, das heißt
die zweite Differenz ist 2 und wenn ich jetzt die Differenz aus der ersten Differenz und der zweiten Differenz bilde, muss ich von 1 zu 2, habe ich wieder eine 1.
Und die Aussage ist, ich mache das immer so weiter und jedes mal fängt die Folge
der Differenzen von den Differenzen von den Differenzen von den Differenzen
wieder mit 1 an. Lustige Vermutung, oder? Und es ist unbekannt, ob das stimmt, aber
es ist eben eine Vermutung. Man kann also wirklich viele lustige Vermutungen über
Zahlen machen, was alles so gelten könnte. Und dabei sortiert man ja heutzutage
immer gleich aus, was durch einen Computer leicht widerlegt werden kann.
Und dann bleibt eben nur das über, was man nicht leicht widerlegen kann.
Also da, wo es kein Gegenbeispiel mit kleinen Zahlen gibt, das bleibt dann über.
Was jetzt genau eine kleine Zahl ist, das hängt natürlich vom Einzelfall ab.
Aber sagen wir mal, irgendwie eine Zahl, die man mit dem Computer einfach verarbeiten,
kann. Also ich bin jedenfalls sicher, dass es nur endlich viele kleine Zahlen gibt,
aber es gibt unendlich viele natürliche Zahlen. Und deswegen ist da auch genug
Platz für kuriose Vermutungen, die falsch sind, aber deren kleinste
Gegenbeispiele irgendwo ganz weit draußen sind, hinter dem, was wir experimentell zugänglich haben. Das führte den kanadischen Mathematiker
Richard Kenneth Guy zur Formulierung eines Gesetzes der kleinen Zahlen.
Das Gesetz der kleinen Zahlen lautet, es gibt nicht genug kleine Zahlen, um alle
Anforderungen zu befriedigen, die wir haben an die kleinen Zahlen.
Also, Richard Guy war ein britischer Mathematiker, der später aber die kanadische Staatsbürgerschaft angenommen hat.
Und der war auch, so ähnlich wie Gardner, Editor von einer Research-Problems-Kolumne im American Mathematical Monthly.
Und auch ein Schach-Experte und guter Freund von Conway. Und er hat auch den Glider in Conways Game of Life entdeckt.
Falls das jemand kennt, das ist so eine Konfiguration, die sieht aus wie so ein kleines Flugzeug, was irgendwie nach links oben fliegt.
Gibt's eine schöne Animation auf Wikipedia oder überhaupt im Netz.
Ist leider 2020 verstorben, aber eine Anekdote führt uns zurück zur letzten Folge.
Er hat nämlich mit Conway gewettet, um 20 Dollar, dass in den nächsten 20 Jahren, also von 1996 an,
eine weitere Fermatzahl komplett faktorisiert wird.
Und das hatte ich ja letztes Mal auch schon besprochen, das ist also wie viel Vermahlzahlen pro Jahr neu faktorisiert worden.
Und die Wette war eben, dass in 20 Jahren keine weitere komplette Faktorisierung dazukommt.
Und da hat er sich auch dann richtig angestrengt, um das noch zu forcieren, aber er hat diese Wette verloren.
Also er hatte sogar am Ende Angeboten, die, wenn jemand mit dem Computer noch eine Faktorisierung fertigstellt, die 20 Dollar zu teilen, aber es gelang nicht.
Also Guy verlor seine Wette, weil da 20 Jahre lang keine weitere Faktorisierung herauskam.
Und er hatte 1988 im American Mathematical Monthly diesen Artikel geschrieben,
The Strong Law of Small Numbers, das starke Gesetz der kleinen Zahlen.
Und das enthält 35 Beispiele von Mustern, von Zahlen oder mathematischen Effekten,
immer mit der Frage, ob sie allgemeingültig sind. Und die könnt ihr euch alle mal anschauen.
Das Gesetz der kleinen Zahlen ist also wie so eine Art Endgegner der Mathematik.
Wenn man ein Muster beobachtet, woher soll man jetzt wissen, ob man daran glauben soll oder nicht?
Soll man die Zeit investieren, das muss dazu beweisen oder zumindest versuchen, oder nicht?
Also er hatte auch ein paar literarische Formulierungen von seinem Gesetz der kleinen Zahlen, zum Beispiel
Capricious coincidences cause careless conjectures.
Oder superficial similarities spawn spurious statements.
Manchmal wirkt dieses Gesetz auch andersrum. Etwas gilt eigentlich für alle Zahlen, aber am Anfang stimmt es nicht.
Also bis auf irgendwie endlich viele Gegenbeispiele.
Dann würde es lauten, early exceptions eclipse eventual essentials.
Oder initial irregularities inhibit incisive intuition.
Tja, so. Wollt ihr noch eins von diesen Problemen hören, was kurios ist?
Könnt ihr wieder mitmachen. Malt euch mal einen Kreis hin und macht zwei Punkte auf die Kreislinie.
Und dann malt ihr die Verbindungsstrecke und das teilt den Kreis logischerweise in zwei Teile.
Wenn ihr jetzt noch einen dritten Punkt nehmt, zufällig ja, nicht dass er irgendwie speziell liegt, einen dritten Punkt, zufällig,
und malt noch die zwei verbleibenden Verbindungsstrecken an, dann entsteht da in der Mitte so ein Dreieck und ihr habt insgesamt vier Gebiete in eurem Kreis.
Jetzt malt ihr mal noch einen vierten Punkt auf die Kreislinie und wieder alle Verbindungsstrecken, dann habt ihr so ein Quadrat,
mit einem Kreuz drin, also nicht ein Quadrat, ein Quadrangle, also ein Viereck mit einem Kreuz drin.
Es hat vier Gebiete innen drin und außen noch mal vier Gebiete macht acht Gebiete.
Also wieder eine 2-Potenz. Malt man noch einen fünften Punkt dazu und ihr kommt auf 16 Gebiete.
Und so weiter. Anscheinend verdoppelt sich also die Anzahl der Gebiete mit jedem weiteren Punkt.
Scheint irgendwie so 2 hoch n-1 zu sein.
So, jetzt macht Richard Guy etwas, was mir eigentlich nicht so gefällt.
Ich finde ja Übungsaufgaben super und Lösungen von Übungsaufgaben nicht so super.
Also ich finde es schon super, wenn man die löst, aber die Lösung zu verraten verdirbt irgendwie den Spaß.
Aber er löst in seinem Artikel alle 35 Fragestellungen auf.
Und was ist euer Move? Ja, was macht er jetzt?
Ihr könnt natürlich jetzt den sechsten Punkt einzeichnen.
Müsst ja schon ganz schön zählen, ob er da auf 32 Gebiete kommt.
Da verzählt er euch bestimmt. Dann zählt er es 31. Und dann wüsst ihr nicht, ob er 31 jetzt glauben sollte oder ob es vielleicht nicht noch irgendwo eins gibt.
Naja, also nummeriert man die alle mal durch und es stellt sich heraus, mit Eulers-Poel-Jeter-Formel sogar,
dass man einfach fünf Terme aus der Entwicklung der binomischen Formel für 1 plus 1 hoch n minus 1 benutzt.
Okay, also man vermutet 2 hoch n minus 1. 2 hoch n minus 1 war das, was man vermutet.
Man vermutet. Für 5 hat man 16 bekommen, was 2 hoch 4 ist. Und ja, diese kuriose
Formel, diese Analyse des Problems ergibt, dass man von 1 plus 1 hoch n-1
die binomische Formel anwendet und dann die Binomialkoeffizienten n-1 über 4,
plus n-1 über 3 und so weiter aufsummieren muss bis n-1 über 0.
5 Binomialkoeffizienten. Und für n gleich 6 muss man trotzdem nur diese 5 aufsummieren. Einer fehlt und es kommt tatsächlich 31 raus, statt 32. Und dann
kommen noch andere kuriose Zahlen raus. In dieser Folge, wenn man bei n gleich 14 ist...
Kommt die berühmte Zahl 1093 raus. Wenn ihr nicht wisst, warum die Zahl 1093 berühmt ist,
dann erinnert ihr euch an den Eigenraum Nummer 009 nicht mehr,
oder ihr habt die noch nicht gehört und könnt da noch mal nachhören, was es
mit der 1093 auf sich hat.
So, da könnt ihr jetzt mal drüber nachdenken. Im Stile eines Zahlensenders gab es hier viele Zahlen zu hören,
und was steckt dahinter? Die Antwort ist klar.
Das Gesetz der kleinen Zahlen. Es gibt zu wenig kleine Zahlen und daher enthalten sie einfach zu viele Muster.
Das Gehirn sucht nach Mustern und findet sie, weil kein Platz ist, sie zu verstecken.
Und mit dieser Botschaft wünsche ich euch noch einen guten Tag, eine gute Nacht
und sage bis bald auf diesem Kanal.
Tschüß!

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre mehr darüber, wie deine Kommentardaten verarbeitet werden.