Roadmap mathematischer Disziplinen für maschinelles Lernen, Teil 2 (Wahrscheinlichkeiten)

Anstatt vorzustellen


Es war einmal der erste Teil , jetzt ist es Zeit für den zweiten Teil! Hier gehen wir auf Fragen der Wahrscheinlichkeitstheorie ein.


Wie im vorherigen Artikel werden wir verschiedene "Ebenen" des Eintauchens in das Thema und seine Untersuchung hervorheben. Tatsächlich glaube ich, dass jedes Fach mehrmals mit unterschiedlichen "Schwierigkeitsgraden" abgeschlossen werden muss: Zuerst tauchen Sie in das Fach ein, gewöhnen sich an das "Wörterbuch", an die typische Formulierung von Problemen und Methoden zu deren Lösung. Nach einer Weile, angereichert mit Wissen aus anderen Bereichen, sind Sie bereit, den Kurs wieder zu belegen, jedoch auf einem etwas höheren Niveau. Sie interessieren sich jetzt vielleicht nicht nur für Standardaufgaben, sondern auch für die Einschränkungen der Methodik, für nicht standardisierte Ansätze, vielleicht für eine Art Philosophie, aus der das Thema hervorgegangen ist (eine ewige Debatte zwischen der „frequentistischen Schule“ und der „bayesianischen Schule“).


Ich möchte Sie daran erinnern, dass wir drei "Komplexitätsebenen" unterscheiden:


  1. Bring es an - das Hauptarbeitspferd; Dies sind Bücher, die als "Muss" bezeichnet werden.
  2. Tut mir sehr weh - eine Stufe höher, ermöglicht es Ihnen, Stufe 1 aus der Vogelperspektive zu betrachten, Wissen zu systematisieren, verschiedene Wissensbereiche zu kombinieren.
  3. Albtraum - für die Starken im Geist, das Niveau von Mehmat, für Liebhaber von Mathematik und Elfenbeintürmen.

In den meisten Fällen gebe ich die Bücher an, die ich entweder selbst gelesen habe oder die in der (mathematischen) Community sehr beliebt sind - sie werden zu Stackoverflow, Goodreads, Quora usw. empfohlen.


Klassische Wahrscheinlichkeit


Ich bin überzeugt, dass es keinen Sinn macht, sofort durch drei Schritte zu springen und sofort in die Welt der Bayes'schen Inferenz einzutauchen, ohne zuvor die klassischen Abschnitte studiert zu haben: Wahrscheinlichkeitstheorie und Statistik.


() ?


  • : , () , ( , - );
  • , , . , ;
  • : /, , ;
  • : , , , , , ;
  • : , ;

( — ). , .


, ?


  • : , , ( , ) , " " - .
  • : . (, , ).
  • : ( MCMC )
  • : , ;
  • : , /;
  • : , ;

Bring it on


Blitzstein & Hwang "Introduction to Probability"; , : stat110. youtube edx stat110x. , . 110 .
, . : " " . R.


: coursera/ /openedu (. openedu). : .
:


  1. .. " ". — " - ..."
  2. - , : " . ". , " ".

Hurt me plenty


MIT
Grimmett, Stirzaker "Probability and random processes" , ( !!! ): One Thousand Exercises in Probability.
Michael Mitzenmacher, Eli Upfal: "
Probability and Computing: Randomization and Probabilistic Techniques in Algorithms and Data Analysis (2nd Edition)". , "real-world" . : VC-.


:


  1. " " 2008 ;
  2. " " ;
  3. . : ;
  4. , 1-2. , , (, , ..). , , , . 1984- ().

: . , "". - , computer science center: .


: . , , , .


Nightmare


. . ,
, , :


  1. , "";
  2. , " ";
  3. , , " ", , — , .

- , "", :


: .
, , :


  1. RICK DURRETT, "Probability, Theory and Examples";
  2. Kai Lai Chung, "A course in probability theory";

Unclassified


, .


,


, . , : overkill; .
, : David Williams, "Weighing the Odds".
, , . , .


Cheatsheets


, - cheatsheets (""), , . :


  1. 1;
  2. 2;


. -, , .


  1. One Thousand Exercises in Probability — , . , ;
  2. , " " — , . , , x. , " ".
  3. " " — ; , , , - ;
  4. , " ";
  5. Blitzstein & Hwang "Introduction to Probability";

?


, "" , ( , ) ; ; (MCMC ) .


python/julia, QuantEcon, , ; , , - R/Python/Julia.


?


Von der Wahrscheinlichkeit blieben die mathematische Statistik und der Bayes'sche Ansatz völlig unberührt. Zu meinem Bedauern lese ich in diesen Bereichen weniger Bücher, und daher sind Tipps von geringerem Wert. Es ist unklar, ob und in welchem ​​Detail geschrieben werden soll.


All Articles