Öffentlich zugängliche Rechtsprechung für Legal Tech Noch ein langer Weg zum LegalGPT?

Wenn wir von einer künstlichen Intelligenz (KI) wissen möchten, welches Tier ein Bild zeigt, muss sie zuvor auf Millionen Tierbildern trainiert worden sein. Wenn wir mit einer KI diskutieren möchten, benötigt die KI noch viel mehr Trainingsdaten. IBM's Project Debater beispielsweise wurde auf 400 Millionen Zeitungsartikeln trainiert. ChatGPT, der Texte übersetzen, zusammenfassen und erzeugen kann (und bei der Erstellung dieses Beitrags mitgeholfen hat), wurde auf mehreren Terabyte Text aus unterschiedlichsten Quellen (Common Crawl, Wikipedia, …) trainiert. Aber was ist, wenn wir von einer KI wissen möchten, ob jemand eine Straftat begangen hat oder ob...

Court Decisions: 99 % Uncharted Deep Sea? Mapping the Blind Spot of Digital Legal Studies over Half a Century (1971-2019)

Legal research increasingly turns to systematic analyses of large amounts of legal text. Current research programs such as Big Data Legal Scholarship, Evidence-Based Jurisprudence, Law & Corpus Linguistics, Computer-Assisted Legal Linguistics, and Law as Data all rely (one way or another) on digitizing or collecting, collectively analysing and quantifying features of text corpora from various genres. First and foremost among these genres are court decisions, due to both their normative force (either stare decisis, or de facto) and their easy and legally unconstrained useability: Court decisions are in the public domain pretty much...