Drawing Drawing

Objektives Wissen und dominante Entscheidungsregeln auf Basis emergenzbasierten Maschinenlernens



Zentrum für Emergenzbasierte Statistik
http://zes.dhbw-vs.de

André Kuck, Norbert Kratz, Hans Frischhut

kuck@dhbw-vs.de, kratz@dhbw-vs.de, frischhut@dhbw-vs.de

Inhalt

  1. Die Lösung des Induktionsproblems mit Hilfe emergenter Gesetze
    • 1.1. Das Induktionsproblem
    • 1.2. Emergente Gesetze und T-dominante Entscheidungsregeln
    • 1.3. Metagesetze - Gesetze über die Prognosegüte von emergenten Gesetzen
  2. Zentrale Vorteile Emergenzbasierter Statistik am Beispiel von Gebrauchtwagenangeboten
    • 2.1. Empirische Analyse der Natur der Prognoseprobleme mithilfe von Metagesetzen
    • 2.2. KnowledgeWarehouses - Datenbanken mit emergenten Gesetzen
    • 2.3. State-of-the-art Prognoseperformance
  3. Emergente Gesetze in Wissenschaft, Praxis und Lehre
    • 3.1. Risikoprämie und Aktienauswahl - Reformulierung und Überprüfung wissenschaftlicher Hypothesen
    • 3.2. Gesetze über Konsequenzen in praktischen Entscheidungssituationen - (Kontrafaktische) Experimente
    • 3.3. Emergente Gesetze in der Lehre: Der Methodenserver des ZES

1. Die Lösung des Induktionsproblems mit Hilfe emergenter Gesetze

1.1. Das Induktionsproblem

Induktion von Beobachtungen auf ein allgemeines Gesetz, das zur Prognose verwendet werden kann:

Bisher sind alle Raben, die wir beobachtet haben, schwarz.

  • Induktionsschluss: Alle Raben sind schwarz.
  • Verwendung zur Prognose: Der nächste Rabe ist schwarz.

Probleme der induktiven Vorgehensweise:

  1. Es gibt bisher nicht "genug" Aussagen, die bisher immer wahr waren.
  2. Die Anwendung der Induktionsregel auf sich selbst ("Alles was wir bisher immer beobachtet haben, passiert immer") scheitert. Die Induktionsregel selbst ist empirisch falsifiziert.

Aus diesen Gründen verwendet man heute meist Wahrscheinlichkeitsaussagen:

Die Wahrscheinlichkeit, dass es morgen regnet, beträgt 50%.

Probleme der wahrscheinlichkeitsbasierten Vorgehensweise:

  1. Es gibt keine Beobachtung, die die Aussage verifiziert und keine, die sie falsifiziert.
  2. Es gibt keine Beobachtung, aus der sie objektiv abgeleitet werden kann.
  3. Rückgriff auf nicht überprüfbare „Verteilungsannahmen“ und die „Testtheorie“.

→ Wir behaupten zurzeit, alles mit "Wahrscheinlichkeit" zu wissen.

→ Leider können diese Behauptungen nur im Unendlichen und somit gar nicht objektiv überprüft werden!

1.2. Emergente Gesetze und T-dominante Entscheidungsregeln


Beispiel für ein emergentes Gesetz: Heimvorteil beim Fußball

Nach jeder Sequenz von T=256 Spielen war die Rate gewonnener Spiele der Heimmannschaft größer als die der Auswärtsmannschaft. Die Wahrheit dieser Aussage ist bis jetzt DiV=55,63 mal bestätigt.

In [6]:
data,_,_=loaddata('soccer',True,1)
aktlaw=LLaws(data,'df.gewonnen_h',x='df.gewonnen_a',bed_y='df.C',bed_x='df.C')
aktlaw.PlotLaws('ct')
display(aktlaw.DescribeLaw()[['Target','Bench','Bed_y','R','Bed_x','TU_ct','Div(TU_ct)','Min(TU_ct)','Max(TU_ct)']])
Target Bench Bed_y R Bed_x TU_ct Div(TU_ct) Min(TU_ct) Max(TU_ct)
0 df.gewonnen_h df.gewonnen_a df.C > df.C 256 55.636719 0.035156 0.308594

Beispiel für T-Dominante Entscheidungsregeln: Peer-to-Peer Kredite der Plattform "LendingClub"

Kreditportfolioauswahlregeln mit nach jeder Sequenz von 512 Krediten unterschiedlicher Rendite.

Man erkennt, dass es Auswahlregeln gibt, die nach jeder Sequenz von T=512 Krediten immer eine höhere Rendite aufwiesen.

Die Eigenschaft einer Handlungsheuristik, nach jeder Sequenz von T Entscheidungen nach einer Bewertungsmetrik (hier Rendite) zu einem besseren Ergebnisse zu führen, nennen wir T-Dominanz.

Eine Auswahl von Portfoliokonstruktionsstrategien auf Basis von Sharpe-Ratio oder RAROC würde zur Wahl der von allen anderen dominierten Strategie führen.

In [24]:
res=knowledge.evalnet(3426,'y_rend',select_obj="minT",MinT=4000)
display(res)
Used Objective: ['(df.y_rend)']
Reliability of Net: 0.95
Global RelLevel 0.95
Global MinObs 128
Peergroup 512.0
Necessary Size of closest objects: 3620.0 4644.0
Number of Objects: 4
Parsing Net:
id_learning_process id_knowledge_net Beispiel start_rel EstSample exmean greater_net AnzQuantile TimeSeries Random_Order objective_name
0 1095 3426 lending_club 0.95 0.75 0 True 5 True False (df.y_rend)
Global RelLevel 0.95
Global MinObs 128
Able to convert int_rate into float64
Able to convert revol_util into float64
Total Number of Objects in Net: 4 Calculated: 4 (((~(((categorize(df.int_rate,2)==1.0)|(categorize(df.int_rate,3)==2.0))|(categorize(df.in              
Objectives of the AND-Net
['(df.y_rend)']
Old number of objects in OR-Knowledge_Net 5
Creating AND-Net, run: 1                
Done: New number of objects in AND-Knowledge_Net 6
Number of objects in peergroup: 4
Calculate Object Number: 4       
id_object_name id_object obj Rel T Div min max mean obs EvalMin EvalMax EvalMean objective_name EvalObs
0 253572 6673739 (((~(((categorize(df.int_rate,2)==1.0)|(catego... 0.95 512 8.0 0.113970 0.180035 0.149148 4182 0.146157 0.185681 0.168326 (df.y_rend) 1447
1 253544 6673705 ((~(((categorize(df.int_rate,2)==1.0)|(categor... 0.95 512 8.0 0.080663 0.159280 0.127034 4132 0.135558 0.189442 0.163332 (df.y_rend) 2509
2 253557 6673720 (((categorize(df.int_rate,2)==1.0)|(categorize... 0.95 512 8.0 0.065564 0.116514 0.086110 4186 0.103391 0.125120 0.112931 (df.y_rend) 1371
3 253542 6673703 ((categorize(df.int_rate,5)==1.0)&(categorize(... 0.95 512 8.0 0.030531 0.081286 0.059954 4197 0.071053 0.086091 0.087303 (df.y_rend) 490
In [25]:
print(res.obj.iloc[2])
print()
print(res.obj.iloc[0])
(((categorize(df.int_rate,2)==1.0)|(categorize(df.int_rate,3)==2.0))&(df.home_ownership=='OWN'))

(((~(((categorize(df.int_rate,2)==1.0)|(categorize(df.int_rate,3)==2.0))|(categorize(df.int_rate,5)==4.0)))&(categorize(df.annual_inc,4)==4.0))&(~(categorize(df.dti,4)==4.0)))

Es bleibt die Frage, ob die bei obigem Beispiel zu beobachtende gute Performance von Prognosen mit emergenten Gesetzen ein systematisches Phänomen ist.

Kann man das Konstruktionsprinzip emergenter Gesetze auch auf die Prognosen mit emergenten Gesetzen anwenden?

1.3. Gesetze über die Prognosegüte von emergenten Gesetzen - Metagesetze


Lerner suchen ab einem beliebigen Zeitpunkt nach Gesetzen über die relative mittlere Luftfeuchtigkeit in Washington DC.

Sie prognostizieren, dass die bis zum Zeitpunkt t in Fenstern der Größe T DiV-mal immer beobachtete Relation zwischen den mittleren Luftfeuchtigkeiten auch im Fenster t+T gilt.

Bei der Evaluierung der Prognosen ergeben sich die folgenden Zeitpfade der empirisch beobachteten Raten richtiger Prognosen (Rel) in Abhängigkeit von DiV:

In [3]:
knowledge=Knowledge_View("KnowledgeDB_Version_06_11_2017.db")
knowledge.plotrel("hum","0_3_C2b",3000,True,0)
Correcting Objective-Names

Betrachtet man viele Prognoseprobleme, so kann man z. B. die folgenden emergenten Meta-Gesetze finden:

Wenn eine Aussage A DiV-mal bestätigt wurde, dann gehört die Prognose, dass A beim nächsten Mal wieder auftreten wird, zu einer Kategorie von Prognosen, für die gilt:
In jeder Sequenz von Prognosen der Länge T>=TU war der Anteil wahrer Prognosen >=Rel.

In [20]:
knowledge.show_overview_MetaLaws_1(Rels=["0.6","0.7","0.8","0.9","0.99","0.999"])
Global RelLevel 0.9
Global MinObs 32
credit 0_3_C2b does not exist. Replaced with 0_3_C1b 0_3_C1b File found.
homeside 0_3_C2b does not exist. Replaced with 0_3_C1b 0_3_C1b File found.
soccer_tordiff 0_3_C2b File found.
bike 0_3_C2b File found.
bank 0_3_C2b File found.
temp 0_3_C2b File found.
hum 0_3_C2b File found.
lendingclub_rendite 0_3_C2b File found.
lendingclub_pd 0_3_C2b File found.
C_SU 0_3_C2b File found.
C_DJ 0_3_C2b File found.
C_R2 0_3_C2b File found.
C_DAX 0_3_C2b File found.
C_FT 0_3_C2b File found.
C_NI 0_3_C2b File found.
SuP_Rend 0_3_C2b File found.
soccer_wgheim 0_3_C2b File found.
soccer_wgaus 0_3_C2b File found.
soccer_wgun 0_3_C2b File found.
Out[20]:
Reliability-Level 0.6 0.7 0.8 0.9 0.99 0.999
DiV-Group
1 16777216.0 NaN NaN NaN NaN NaN
2 134217728.0 8388608.0 NaN NaN NaN NaN
4 67108864.0 268435456.0 NaN NaN NaN NaN
8 8388608.0 67108864.0 67108864.0 NaN NaN NaN
16 8388608.0 4194304.0 33554432.0 16777216.0 NaN NaN
32 262144.0 524288.0 4194304.0 67108864.0 NaN NaN
64 65536.0 262144.0 4194304.0 4194304.0 2097152.0 NaN
128 262144.0 2097152.0 65536.0 524288.0 524288.0 NaN
256 16384.0 32768.0 32768.0 131072.0 131072.0 2097152.0
512 8192.0 16384.0 16384.0 32768.0 1048576.0 524288.0
1024 2048.0 4096.0 8192.0 16384.0 262144.0 131072.0
2048 1024.0 1024.0 2048.0 4096.0 65536.0 65536.0
4096 128.0 128.0 256.0 512.0 8192.0 8192.0
8192 16.0 16.0 32.0 64.0 512.0 4096.0
16384 8.0 16.0 32.0 64.0 512.0 4096.0
32768 8.0 8.0 16.0 32.0 256.0 2048.0
200000 4.0 4.0 8.0 16.0 128.0 1024.0

Lösung des Induktionsproblems mit Hilfe von Metagesetzen:

  • Bisher waren alle 8193 (DiV=8192) beobachteten Raben schwarz.
  • Bisher waren in jeder Sequenz von 512 Prognosen mit 8192 mal bestätigten Gesetzen mindestens 99% richtig.

    → Die Prognose, dass der nächste Rabe schwarz sein wird, gehört zu einer Art von Prognosen, von denen nach jeder Sequenz von 512 Prognosen bisher immer mindestens 99% richtig waren.


  • Metagesetze über die Rate richtiger Prognosen zeigen, was man bisher immer über die Mindestgüte von Prognosestrategien sagen konnte.
  • Sie erlauben die Anwendung des emergenten Induktionsprinzips auf Induktionsergebnisse und lösen so das Induktionsproblem.
  • Darüber hinaus existieren Metagesetze über die relative Performance von Modellbildungsprozessen, Modell-Updatestrategien etc.
  • Auf dieser Basis haben wir einen durch Metagesetze gesteuerten Lernprozess entwickelt.

2. Zentrale Vorteile Emergenzbasierter Statistik am Beispiel von Gebrauchtwagenangeboten

Datensatz: Gebrauchtwagenangebote im Internet

  • ~300.000 Gebrauchtwagenangebote auf der Plattform Ebay-Kleinanzeigen (source)
  • Zeitraum 2015/2016
  • Vorhandene Information sind z.B. Marke, Model, Alter, PS, Kilometer, Schaltung, Unfallschaden etc.
  • Interessante Größen zur Vorhersage:
    • Angebotspreis in € (Spalte price)
    • Dauer bis zum Verkauf in Stunden (Spalte offer_period)
In [14]:
data.tail()
Out[14]:
price offer_period brand model car_age powerPS kilometer vehicleType fuelType gearbox seller notRepairedDamage offerType abtest nrOfPictures monthOfRegistration postalCode postalCode_region postalCode_precise length_title dateCrawled dateCreated lastSeen
index
297636 3200 20.745278 seat leon 12 225 150000 limousine benzin manuell privat ja Angebot control 0 5 96465 9 96 12 2016-03-19 19:53:49 2016-03-19 2016-03-19 20:44:43
297637 1199 162.286667 smart fortwo 16 101 125000 cabrio benzin automatik privat nein Angebot test 0 3 26135 2 26 37 2016-03-05 19:56:21 2016-03-05 2016-03-11 18:17:12
297638 9200 463.257222 volkswagen transporter 20 102 150000 bus diesel manuell privat nein Angebot test 0 3 87439 8 87 34 2016-03-19 18:57:12 2016-03-19 2016-04-07 07:15:26
297639 3400 108.755833 volkswagen golf 14 100 150000 kombi diesel manuell privat nan Angebot test 0 6 40764 4 40 22 2016-03-20 19:41:08 2016-03-20 2016-03-24 12:45:21
297640 28990 363.286111 bmw m_reihe 3 320 50000 limousine benzin manuell privat nein Angebot control 0 8 73326 7 73 44 2016-03-07 19:39:19 2016-03-07 2016-03-22 03:17:10

2.1. Empirische Analyse der Natur der Prognoseprobleme mithilfe von Metagesetzen

Nach unseren Erkenntnissen lassen sich Prognoseprobleme in identifizierbare Klassen unterteilen, die die Verwendung unterschiedlicher Prognoseverfahren notwendig machen:

  1. Probleme mit naturwissenschaftlichem Charakter
    • Eigenschaften der Metagesetze: Man findet im Zeitablauf stabile Gesetze mit einem maximalen DIV>256
    • Methoden: Emergente Modellbildung mit Messgrößen als exogenen Variablen.

  2. Probleme mit spieltheoretischem Charakter und stabilen Lerngeschwindigkeiten (Fussballwetten, Kreditrisiko)
    • Eigenschaften der Metagesetze: Man findet im Zeitablauf stabile Gesetze, aber nur einem maximalen DIV<=256
    • Methoden: Verwendung von Moden (nur zwischenzeitlich bestätigter Gesetze) als exogene Variablen.

  3. Probleme mit spieltheoretischem Charakter und variabler Lerngeschwindigkeit (Aktienmärkte)
    • Eigenschaften der Metagesetze: Gesetze nur mit einem maximalen DIV<=256 und im Zeitablauf abnehmender Rel
    • Methoden: Verwendung von Moden (nur zwischenzeitlich bestätigter Gesetze) als exogene Variablen unter Berücksichtigung der aktuellen Lerngeschwindigkeit

rels_agg2

Für den Datensatz mit Gebrauchtwagenangeboten ergibt sich folgender Zeitverlauf der Reliabilities zur Vorhersage der Preise (in Fenstern von T=4000 Zeitpunkten):

  • maximal erreichtes DiV: 8192 Bestätigungen
  • Verlauf der Reliabilites sehr stabil

--> Prognoseproblem mit tendenziell naturwissenschaftlichem Charakter - Emergente Standardmethoden verwendbar

2.2. KnowledgeWarehouses - Datenbanken mit emergenten Gesetzen

Stochastische Verfahren beruhen immer auf "Annahmen". Daraus folgt, dass man immer in der Lage ist, mit unterschiedlichen Modellen für die gleiche zukünftige Beobachtung unterschiedliche - üblicherweise sich widersprechende - Prognosen zu machen.

In der Welt der Stochastik wird die Falsifikation der Modelle (die normalerweise alle für die nächste Beobachtung falsche Prognosen gemacht haben) nur dadurch verhindert, dass man sagt, nur z.B. der "Erwartungswert" (der Mittelwert nach unendlich vielen Beobachtungen) muss richtig sein.

Dies hat zur Konsequenz, dass so etwas wie "objektives empirisches stochastisches Wissen" nicht möglich ist. Viele konkurrierende Verfahren können nicht auf Basis objektiver Wahrheit ausgewählt werden und konkurrierende Verfahren machen (meist) sich widersprechende Vorhersagen.

  • Emergente Gesetze hingegen sind alle nicht nur logisch, sondern auch empirisch miteinander vereinbar.
  • Die Verwendung des Induktionsprinzips: "Es bleibt, wie es bisher immer wahr war" stellt sicher, dass auch aus emergenten Gesetzen abgeleitete Prognosen sich nicht widersprechen können.

Aufgrund dieser Eigenschaften lassen sich Emergente Gesetze strukturiert in einem KnowledgeWarehouse abspeichern. Alle auf dieser Basis gemachten Vorhersagen sind miteinander kompatibel.

Dies ist unserer Meinung nach einer der größten Vorteile emergenzbasierter Statistik.

Die derzeit in unserem KnowledgeWarehouse abgelegten Gesetze stammen von zwei unterschiedlichen Algorithmen:

Eine detailliertere Erklärung von KnowledgeWarehouses ist auf folgender Internetseite zu finden.

KnowledgeNets, Objekte und ihre Eigenschaften

  • KnowledgeNets sind Mengen von Objekten, die bisher bezüglich eines oder mehrerer Ziele in Peergroups immer verschiedene Mittelwerte aufwiesen.
  • Objekte sind Regeln zur Auswahl von Zeitpunkten - in diesem Beispiel werden einzelne Gebrauchtwagenangebote ausgewählt.
  • Die Objektregeln werden während des Lernprozesses von unserem KnowledgeNet-Alogrithmus durch kreative Suche erstellt.
  • In der Anwendung sind sie eine Menge von "interessanten", zumindest bezüglich einer Zielvariablen immer von anderen unterscheidbaren Objekten.
  • Sie haben sich als solides Fundament für Modellbildung und die Ableitung von Handlungsstrategien erwiesen. (Sie erfüllen so die Funktion der unsupervised learning layer in deep-neural-nets.)
  • Sie werden als fundamentale Regeln mit einer Reihe potentiell interessierender Eigenschaften im KnowledgeWarehouse abgespeichert.
  • Natives Multiziel-Lernen in KnowledgeNets ist möglich, d.h. es können ohne Probleme beliebig viele Ziele berücksichtigt werden:
    Zum Beispiel können nur Gebrauchtwagenangebote ausgewählt werden, bei denen weniger als 10.000€ (price) verlangt werden und die sich innerhalb von 10 Tagen oder weniger (offer_period) verkaufen.

Die folgende Graphik zeigt einen kleinen Teil eines KnowledgeNets - dargestellt im KnowledgeWarehouse - für den Gebrauchtwagenpreis bei Internetangeboten. net_entry

Ein komplettes KnowledgeNet für den Gebrauchtwagenpreis und Verkaufsdauer lässt sich folgendermaßen darstellen.

Der oberste kleine rote Punkt in der oberen Graphikhälfte für den Gebrauchtwagenpreis (df.price) ist der gerade gezeigte Eintrag im KnowledgeWarehouse.

knowledge_net_used_cars

Die in der umfangreicheren Übersicht dargestellten Objekte im KnowledgeWarehouse sind nach ihrem Mittelwert (mean) in absteigender Reihenfolge sortiert.

used_cars_net

Emergenzbasierte Modelle

  • Emergenzbasierte Modelle sind Sequenzen von Prognoseregeln, die bezüglich einer Bewertungsmetrik bisher immer zu einer Prognoseverbesserung geführt haben.
  • Jede einzelne Prognoseregel setzt sich aus einem Objekt (wählt den Anwendungsbereich der Regel) und einer Prognose-Heuristik zusammen.
  • Durch die Beschränkung der Suche auf Objekte aus KnowledgeNets wird die Modellbildung erst operabel.
  • Auf einem Netz können Modelle für viele interessierende Größen aufsetzen.
  • Da Modelle selbst wieder Sequenzen von emergenten Gesetzen sind, können sie ebenfalls im KnowledgeWarehouse abgelegt werden.

In untenstehender Graphik ist ein kleiner Ausschnitt eines Modells zur Prognose des Angebotspreises bei Gebrauchtwagen dargestellt:

model_entry

Anhand eines größerer Ausschnitts eines anderen Modells kann man erkennen, dass Modelle Sequenzen von Prognose-verbessernden Objekt-Heuristik-Kombinationen sind:

used_cars_model

2.3. State-of-the-art Prognoseperformance

Obwohl die gerade gezeigten Vorteile emergenzbasierter Statistik unserer Einschätzung nach für ihre Praxisrelevanz entscheiden sind, wollen wir doch kurz die Ergebnisse von Modellen auf Basis emergenzbasierter Statistik (ELBS-Modell) mit den aktuell besten und populärsten Machine-Learning-Bibliotheken auf der Basis von Standard-Performance-Metriken vergleichen.

Für das obige Beispiel ergaben sich folgende Performance-Metriken eines ELBS-Modells im Vergleich mit Random-Forest (sklearn), xgboost und LightGBM. (Bei der Anwendung aller ML-Verfahren werden optimale Hyperparameter mit einem Grid Search bestimmt.)

Error Metrics
(out of sample)
ELBS-Model Random Forest
(Grid Search)
xgboost
(Grid Search
LightGBM
(Grid Search)
Mean Absolute Percentage Error 0.358 0.614 0.419 0.489
Mean Absolute Error 1631.07 1973.53 1532.20 1842.86
Root Mean Squared Error 20878.88 16963.02 14742.98 21652.99
Root Mean Squared Logarithmic Error 0.415 0.562 0.450 0.514

Man erkennt, dass die auf Basis von Emergenzbasierter Statistik konstruierten Modelle (ELBS-Modelle) eine state-of-the-art Prognoseperformance erreichen, die der populärer Machine-Learning Bibliotheken zumindest vergleichbar ist.

Es sei an dieser Stelle aber noch einmal darauf hingewiesen, dass die oben vorgestellten und viele andere Anwendungsmöglichkeiten Emergenzbasierter Statistik - nach unserem Kenntnisstand - nicht mit den üblichen Machine-Learning Bibliotheken umsetzbar sind.

3. Emergente Gesetze in Wissenschaft, Praxis und Lehre

3.1. Risikoprämie und Aktienauswahl - Reformulierung und Überprüfung wissenschaftlicher Hypothesen

Kann man die Existenz einer Risikoprämie als empirisches Phänomen beobachten?

Sind Risiko-adjustierte Performancemaße wie Sharpe-Ratio oder Risk-Adjusted Return on Capital zur Portfoliokonstruktion empirisch geeignet?

  • Stochastische Vorgehensweisen zur Beantwortung dieser Fragen verwenden die Testtheorie.
  • Ausgangspunkt ist immer die Spezifikation eines Modells.
  • Welches ist das "richtige" Modell? (Multivariate Normalverteilung, Multivariate T-Verteilung, stetige stochastische Prozesse, AR-Prozess für die Parameter, (E)GARCH-Prozess für die Parameter .....)
  • Die gefundene Antwort auf die Ausgangsfrage hängt von den gemachten Annahmen ab.
  • Es gibt potentiell unendlich viele Kombinationen von Annahmen (Modelle)
  • Die Wahrheit der Annahmen kann nicht objektiv geklärt werden (Subjektivität)
  • Falsifizierung durch statistisches Testen ist nicht endgültig (Zusätzliche Daten können dazu führen, dass eine falsifizierte Hypothese wieder wahr wird)

Die stochastischen Methoden sind also subjektiv und Falsifizierungen auf Basis der Testtheorie sind vorläufig.

Emergente Methoden hingegen sind objektiv und führen zu endgültigen Falsifizierungen von Hypothesen.

Im Beispiel erfolgt eine Operationalisierung des Risikobegriffs über drei häufig verwendete Maße über unterschiedliche Schätzfenster (T1):

(1) Standardabweichung der Rendite eines Assets (std(T1))
(2) 1 % Quantil der Rendite (.quantile(0.01,T1))
(3) Das Beta mit dem gleichgewichteten Portfolio aller Aktie (_beta(T1)_)

Außerdem werden die folgenden Risiko-adjustierten Performance-Maße auf ihre Performance hin untersucht:

(1) Sharpe-Ratio (Mean(T1)/std(T1))
(2) RAROC (Mean(T1)/quantile(0.01,T1))
(3) Kelly's optimaler Hebel (Mean(T1)/Varianz(T1))


mit T1 in [2,3,4,8,16,32,64,128,256,512]

Empirische Grundlage sind die täglichen Kursdaten von 200 amerikanischen Aktien, die zumindest eine Historie von 4000 Handelstagen haben. (Datenquelle Kaggle, nur aktuell existierende Unternehmen daher Selection-Bias)

Beispiele für die Ergebnisfunktion der beschriebenen elementaren Auswahlstrategien:

logrend(df['USSTOCKS'_df.C_16_.std()_max_1_1']).shift(-1)

Wähle immer das Asset (aus Gruppe USSTOCKS), das in den letzten 16 Handelstagen (C_16) die höchste (_max_1_1) Standardabweichung (.std()) hatte und berechne die stetige Rendite des nächsten Tages (logrend().shift(-1)).

oder

logrend(df['USSTOCKS'_df.C_128_sr_quantile_0.2_0.1']).shift(-1)

Konstruiere für jeden Handelstag ein gleichgewichtetes Portfolio aus Assets (aus Gruppe USSTOCKS), die in den letzten 128 Handelstagen (C_128) eine Sharpe-Ratio (_sr_) hatten, die zwischen dem 0.1 und dem 0.2-Quantil (_quantile_0.2_0.1), der nach dieser Sharpe-Ratio sortierten Assets, hatten und berechne die stetige Rendite dieses Portfolios für den nächsten Handelstag (logrend().shift(-1)).

In [330]:
resultlist=show_results(df,Endo,Search='sr')

Konstruktion theoriebasierter Hypothesen über die Performance solcher Auswahlregeln:

Übertragbarkeit bisheriger Performance:

Es gibt eine Lag-Länge T, für die gilt:

Zu jedem Zeitpunkt t ist die mittlere Rendite über T Handelstage einer Strategie Pf(Hoch,T1,t) höher als die einer Strategie Pf(Niedrig,T1,t).

Risikoprämie

Es gibt eine Lag-Länge T, für die gilt:

Zu jedem Zeitpunkt t ist die mittlere Rendite über T Handelstage einer Strategie Risiko(Hoch,T1,t) höher als die einer Strategie Risiko(Niedrig,T1,t)

Empirische Überprüfung für ein Strategiepaar:

Zum Beispiel werden hier die Ergebnisse der beiden extremen Strategien:

`logrend(df['USSTOCKS_3_sr_max_1_1']).shift(-1)` und

`logrend(df['USSTOCKS_3_sr_min_1_1']).shift(-1)`

miteinander verglichen. Man erkennt, dass in jeder Sequenz von 1024 Tagen die Durchschnittsrendite der nach dem SR-Kriterium (Sharpe-Ratio) "besseren" Strategie geringer war.

In [358]:
LLaws(df,"logrend(df['USSTOCKS_3_sr_max_1_1']).shift(-1)",x="logrend(df['USSTOCKS_3_sr_min_1_1']).shift(-1)",bed_y='df.C',bed_x='df.C').PlotLaws('ct')

Es war bisher immer so, dass die Durchschnittsrendite der Strategie "Wähle immer das Asset mit der niedrigsten Sharpe-Ratio der letzten 3 Handelstage" in Fenstern der Länge 1024 höher war als die der Strategie "Wähle immer das Asset mit der höchsten Sharpe-Ratio".

Dieses Gesetz ist bisher 5.05 mal bestätigt.

Die Prognose, dass ein DiV in [4...8] mal bestätigtes Muster im nächsten 1024-Tage Fenster wieder auftritt, gehört zu einer Kategorie von Prognosen von denen nach Sequenzen von 26843456 Prognosen immer mindestens 70% richtig waren. (Reliability-Angabe 0.8 in obiger Grafik wird aus einer differenzierteren Klasse von Metagesetzen abgeleitet. Beide Angaben waren aber bisher immer richtig und widersprechen sich nicht)

Die Hypothese, dass immer eine Überlegenheit der nach dem SR-Kriterium besseren Assets in Fenstern kleiner als 6000 Messungen auftaucht ist für immer falsifiziert.

Zusammenfassung der Ergebnisse:

Betrachtet man nun systematisch alle Paare von Strategien, die nach dem selben Risiko-(Performance-)Maß verglichen werden können und sucht nach emergenten Gesetzen über die relative Performance der Strategien, so erhält man folgende Tabelle mit der Anzahl von Gesetzen, die die jeweiligen Hypothesen bestätigen oder in die Gegenrichtung weisen:

In [353]:
erg
Out[353]:
Metrik Bestätigende Gesetze Widersprechende Gesetze Untersuchte Strategiepaare
0 std 11 0 150
1 quantile(0.01) 3 0 45
2 beta 0 2 150
3 sr 0 75 150
4 raroc 1 11 45
5 m 0 67 150

Man erkennt, dass es tatsächlich z.B. für das Maß std (Standardabweichung) alle gefundenen empirischen Gesetze (insgesamt 11 Gesetze) die Hypothese der Existenz einer Risikoprämie in T-Fenstern bestätigen. Für 139 Strategiepaare mit unterschiedlichem Risiko ist hingegen keine immer zu beobachtende Risikoprämie vorhanden.

Hingegen gibt es insgesamt 75 Gesetze, in denen die nach dem Performance-Kriterium sr (Sharpe-Ratio) bisher besseren Strategien in Fenstern der Länge T immer eine schlechtere Durchschnittsrendite hatten. Also ist bisher die Ausrichtung an der Performance der Vergangenheit ein sehr schlechter Ratgeber.

Es sei an dieser Stelle noch einmal darauf hingewiesen, dass die hier gemachten Aussagen auf keinerlei Annahmen basieren. Es war schlicht bisher immer so (im Mittel über T-Fenster und vor dem Hintergrund der verwendeten Erfahrung).

In diesem Sinne sind die hier gemachten Aussagen nicht kontrovers und man kann nicht aus der Perspektive unterschiedlicher "Theorien" oder "stochastischer Annahmen" darüber diskutieren.

3.2 Gesetze über Konsequenzen in praktischen Entscheidungssituationen - (Kontrafaktische) Experimente

Nach unserer Einschätzung gilt:

  • Die meisten derzeit verwendeten ML-Verfahren mit guter Prognoseperformance - gemessen in den Standardmetriken - erzeugen Modelle, die für den Menschen nicht verständlich sind.

  • Ob Verständlichkeit der Modelle eine relevante Eigenschaft ist, wird derzeit durchaus kontrovers diskutiert. Große Spieler wie Google wenden aber beträchtliche Ressourcen auf, um z. B. Deep-Neural-Nets zu "verstehen".

  • Nicht die "Optimierung" einer mehr oder weniger willkürlich gewählten Performance-Statistik ist entscheidend für die Praxis-Tauglichkeit eines statistischen Modells.

  • Entscheidend ist die Fähigkeit, Handlungsregeln zu finden, die zu einer Verbesserung der Ergebnisse von Entscheidungssequenzen führen.

  • Verständlichkeit von Modellen ist aber eng verknüpft mit ihrer Fähigkeit, Ergebnisse zu erzeugen, die für die Verbesserung von Handlungsergebnissen relevant sind.

Ein Beispiel für die Verbindung von Verständlichkeit und Entscheidungsrelevanz ist die Möglichkeit zur Durchführung von "Was wäre wenn Experimenten" an "interessanten" Objekten.

Nur wenn man:

1. exakt identifizieren kann, in welchen Objekten man bisher unerwünschte Entscheidungsergebnisse erhält und
2. exakt identifizieren kann, welche Teile der Auswahlregel durch eigene Handlungen verändert werden können

kann man versuchen, die Konsequenzen von eigenen Handlungsmöglichkeiten zu quantifizieren und so überlegene Handlungsstrategien identifizieren. Soweit wir erkennen können, ist dies mit opaken Standard-ML-Modellen nicht möglich.

Wir nennen diese Vorgehensweise "Kontrafaktisches Experiment".

Nimmt man als einfaches Beispiel die Gesetze aus dem Datensatz IBM (Datenquelle Kaggle), bei dem die Variable df.y anzeigt, ob ein Mitarbeiter im nächsten Jahr das Unternehmen verlässt (Kündiger) und sucht aus der Menge der Objekte, die mindestens 100 Beobachtungen auswählen,

ibm

dasjenige mit der höchsten Rate an Kündigern heraus (ca. 47%), so findet man das Objekt:

"(((df.JobLevel==1)&(~(df.JobRole=='Research Scientist')))&(df.StockOptionLevel==0))"

Es handelt sich hier also um Mitarbeiter der untersten Hierarchieebene (df.JobLevel==1), die nicht "Research Scientist" (~(df.JobRole=='Research Scientist')) sind und keine Aktienoptionen in ihrem Gehaltspaket haben (df.StockOptionLevel==0).

Gehen wir davon aus, dass die Variablen df.JobLevel und df.StockOptionLevel "Policy-Variablen" in dem Sinne sind, dass IBM durch Beförderung bzw. durch die Vergabe von Optionen im Gehaltspaket diese Variablen autonom setzen kann.

Dann können wir nach Gesetzen über die Möglichkeiten von IBM suchen, die Rate an Kündigern durch die Wahl einer anderen Policy zu beeinflussen.

Dazu muss das Objekt nur auf andere beobachtete Werte der Policy-Variable gesetzt werden:

In [4]:
set_global_rel(0.8,plot_rel=False)
beispiel='ibm'
obj="(((df.JobLevel==1)&(~(df.JobRole=='Research Scientist')))&(df.StockOptionLevel==0))"
ausdr="df.JobLevel==1"
ziel='df.y'
ibmlaws=experiment(beispiel,ziel,obj,ausdr,lprint=False)
ausdr="df.StockOptionLevel==0"
ibmlaws=ibmlaws.append(experiment(beispiel,ziel,obj,ausdr,lprint=False),ignore_index=True)
Global RelLevel 0.8
Global MinObs 16
Aktueller Wert

df.JobLevel == 1 0.4375 144

Bei Variation des Testausdrucks

df.JobLevel == 2 0.1683673469387755 196
df.JobLevel == 3 0.19767441860465115 86
df.JobLevel == 4 0.09302325581395349 43
df.JobLevel == 5 0.11538461538461539 26
Aktueller Wert

df.StockOptionLevel == 0 0.4375 144

Bei Variation des Testausdrucks

df.StockOptionLevel == 1 0.21487603305785125 121
df.StockOptionLevel == 2 0.2 20
df.StockOptionLevel == 3 0.20833333333333334 24

und man erhält eine Liste mit Gesetzen über Veränderungen der Rate an Kündigern bei Variation von Policy-Variablen.

In [5]:
display(ibmlaws)
Target Bench Bed_y R Bed_x T ObsMin ObsMax Div Min(T) Max(T) Mean(TG) TU_ct Div(TU_ct) Min(TU_ct) Max(TU_ct) TU_ot Div(TU_ot) Min(TU_ot) Max(TU_ot) AgB AoB BoA
0 df.y df.y (((df.JobLevel==2)&(~(df.JobRole=='Research Sc... < (((df.JobLevel==1)&(~(df.JobRole=='Research Sc... 735 88.0 108.0 1.0 -0.339623 -0.217172 -0.269133 256 4.742188 -0.444444 -0.129032 16 11.2500 -0.5000 -0.0625 0 196 144
1 df.y df.y (((df.JobLevel==3)&(~(df.JobRole=='Research Sc... < (((df.JobLevel==1)&(~(df.JobRole=='Research Sc... 735 38.0 49.0 1.0 -0.354167 -0.125356 -0.239826 256 4.742188 -0.506410 -0.011111 16 4.3750 -0.5625 -0.0625 0 86 144
2 df.y df.y (((df.JobLevel==4)&(~(df.JobRole=='Research Sc... < (((df.JobLevel==1)&(~(df.JobRole=='Research Sc... 735 21.0 29.0 1.0 -0.454545 -0.223523 -0.344477 256 4.742188 -0.608696 -0.096154 8 4.3750 -0.6250 -0.1250 0 43 144
3 df.y df.y (((df.JobLevel==1)&(~(df.JobRole=='Research Sc... < (((df.JobLevel==1)&(~(df.JobRole=='Research Sc... 735 55.0 69.0 1.0 -0.296875 -0.137409 -0.222624 256 4.742188 -0.474510 -0.008152 16 6.5625 -0.5000 -0.0625 0 121 144

Man erkennt, dass z. B. in der Gruppe der eine Hierarchieebene höher angesiedelten Mitarbeitern (df.JobLevel==2) die Kündigungsrate immer (in jeder Sequenz von 16 Mitarbeitern) zwischen 6,25% und 50,0% niedriger lag. Dies Gesetz ist 11.25 mal bestätigt.

Die Prognose, dass dies in der nächsten Sequenz von 16 Mitarbeitern wieder so sein wird, liegt in einer Klasse von Prognosen von denen wir wissen, dass bisher in jeder Sequenz von 67108864 Prognosen die Rate wahrer Prognosen über 80% lag.

Die Vermutung liegt nahe, dies als einen Hinweis auf die Möglichkeit zu interpretieren, die Kündigungsrate in dieser Gruppe durch z.B. Beförderungen senken zu können.

Wir nennen diese Vorgehensweise "kontrafaktisches Experiment", weil man nicht in der Lage ist, die Konsequenzen der eigentlich interessierenden Änderungen an den Beschäftigten aus der Gruppe JobRole==1 zu beobachten. Stattdessen verwendet man die "Erfahrung" von anderen Beschäftigten, um zu Gesetzen über die Konsequenzen einer hypothetischen Verhaltensänderung zu kommen.

T-Dominanz als Entscheidungskriterium + die Fähigkeit zur Abschätzung der emergenten Konsequenzen von Verhaltensänderungen durch kontrafaktische Experimente sind (unserer Einschätzung nach) für die Anwendung in der Praxis von entscheidender Bedeutung.

Aufsetzend auf die universell kombinierbaren Gesetze in einem KnowledgeWarehouse lassen sich so für relevante Objekte "bisher immer bessere" Entscheidungsregeln finden. Meta-Gesetze erlauben eindeutige Aussagen über die bisherige Güte der wiederholten Verwendung der Prognosestrategie "Es bleibt so, wie es bisher immer war".

Letztendlich kann man automatisiert alle Objekte mit nicht wünschenswerten Ergebnissen (im Rahmen der gegebenen Handlungsmöglichkeiten) auf T-Dominante Verbesserungsvorschläge hin untersuchen.

3.3. Emergente Gesetze in der Lehre: Der Methodenserver des ZES

Der Methodenserver des ZES (Methoden-Server) stellt für Forschung und Lehre eine Python Umgebung, Daten und Algorithmen zur Emergenzbasierten Statistik zur Verfügung.

Er wird in der Lehre in folgenden Bereichen eingesetzt (werden):

  • Grundlagenausbildung in Statistik mit beschreibenden Statistiken (auch expandierend und rollierend) in Python
  • Veranstaltungen zu Standard-ML-Verfahren (mit Standard-Python-Bibliotheken) (geplant)
  • Veranstaltungen zu Emergenzbasierten Statistik (mit dem ML_Tool des ZES)
  • Verwendung der Emergenzbasierten Statistik in Projekt- und Bachelorarbeiten und einpflegen der Ergebnisse in ein KnowledgeWarehouse
  • Erstellung eines KnowledgeWarehouses zum Thema "Economics and Finance" (geplant)
  • Verwendung des KnowledgeWarehouses in Fachveranstaltungen (geplant)
  • Erstellung eines Lernenden Systems "Economics and Finance" (geplant)



Learning-System-Gesa

Eine detailliertere Erklärung eines Learning Systems ist auf folgender Internetseite bereitgestellt.


Kontakt

Unter den angegebenen E-Mail Adressen können Sie bei Fragen, Anmerkungen gerne mit uns Kontakt aufnehmen.