Sie gibt Wege an, um auch umfangreiche und komplizierte Datensätze möglichst anschaulich darzustellen. Sie zeigt, wie man große Datenmengen durch einige wenige Zahlen und eventuelle Zusatzangaben (z.B. ,,ungefähre Exponentialverteilung“) mit minimalem Informationsverlust zusammenfassen kann. Sie beschreibt einfache und wichtige Modelle zur Erfassung der Natur (z.B. linearer oder quadratischer Zusammenhang zweier Größen oder ihrer Logarithmen; additives oder multiplikatives Zusammenwirken mehrerer Faktoren).
Sie bietet häufig benutzbare Modelle für die zufälligen Schwankungen und zufälligen Fehler, die in Daten beobachtet werden können (z.B. Binomial- und Poisson-Verteilung für die Anzahl der Fälle, in denen ein bestimmtes Ereignis zufällig eintritt; Normalverteilung - Gauß'sche Glockenkurve - für die Größe von Meßfehlern).
Sie untersucht und vergleicht verschiedene Versuchspläne gleichen Umfangs zur Messung mehrerer Effekte, oder zur Prüfung einer Hypothese, oder zur schrittweisen Suche eines Optimums oder zum Ziehen einer Stichprobe aus einer strukturierten Grundgesamtheit. Dadurch kann, bei gleicher Genauigkeit, der Versuchsaufwand oft stark reduziert werden.
Sie prüft, inwieweit beobachtete Abweichungen von einem Modell dem Zufall zugeschrieben werden können, also ob Daten und Modell oder Hypothese im Rahmen der zufälligen Fehler miteinander vereinbar sind oder nicht (Tests).
Sie liefert eine möglichst gute Anpassung der unbekannten Konstanten (Parameter) eines Modells an die Daten, unter Berücksichtigung des Vorhandenseins von zufälligen (eventuell auch groben) Fehlern (Schätzungen, genauer Punktschätzungen); gleichzeitig gibt sie die ungefähre Genauigkeit dieser Anpassung an (Standardfehler, Vertrauensbereiche).
Ferner, auf einer höheren Stufe der Theorie:
- Sie gibt die Grundlagen für möglichst vernünftige (rationale) Entscheidungen, besonders Routine-Entscheidungen, und studiert die damit verbundenen langfristigen Risken (Entscheidungstheorie).
- Sie versucht, möglichst genau den Zustand unseres unvollkommenen und unsicheren Teilwissens zu beschreiben (Likelihood-Theorie).
- Sie bietet Formalismen, um (subjektive oder objektive) Vorkenntnisse explizit und zwangsläufig in die Datenanalyse einzubauen (Bayes-Theorie).