Funktionsübersicht legalneer.ai

Was ist legalneer.ai?
legalneer.ai ist eine KI-basierte Plattform die LLMs (Large Language Models) verwendet, um Juristen und Studenten in der täglichen Rechtspraxis effizient unterstützt. LLMs sind KI-Modelle, die auf großen Mengen von Textdaten trainiert wurden und menschliche Sprache verstehen sowie verarbeiten können. Sie ermöglichen unter anderem die automatische Analyse, Zusammenfassung und Generierung von Texten. Wir bieten Werkzeuge für die Recherche, die Zusammenfassung und die automatisierte Überprüfung von Dokumenten. Eine Nutzung von legalneer.ai durch juristische Laien ist ausdrücklich nicht vorgesehen.
legalneer.ai greift auf Daten zurück, die in der MyData-Datenbank hochgeladen werden, und gewährleistet dabei vollständige Transparenz der verwendeten Quellen, sodass Nutzer die Relevanz der bereitgestellten Informationen verifizieren können. Der Fokus liegt auf der gezielten Nutzung eigener Daten, wodurch legalneer.ai die Qualität und Effizienz juristischer Arbeitsprozesse optimiert. Die Verwendung eigener Dokumente stellt sicher, dass die Antworten auf fundierten, nutzerspezifischen Quellen basieren. So wird das Problem umgangen, dass große Sprachmodelle für den rechtlichen Bereich mangels fachlicher Tiefe oft unzureichend sind.
Mit legalneer.ai optimieren Nutzer Ihre juristische Arbeit und nutzen Ihr Fachwissen effizienter. Nutzer können gezielte Fragen an die Fachdatenbank stellen, Entwürfe von Rechtsdokumenten erstellen und zusätzlichen Mehrwert durch die optionale Freigabe von Datenbeständen schaffen.
Ein entscheidender Vorteil ist die hohe Datenkontrolle, die es den Nutzern ermöglicht, die eigene Datenbasis vollständig zu steuern und zu kontrollieren. Mit den generierten Antworten bietet legalneer.ai eine erste Einschätzung zu rechtlichen Fragestellungen, basierend auf relevanten Quellen. Dies kann in der Praxis erheblich zur Zeitersparnis beitragen. Intensive Tests mit legalneer.ai haben gezeigt, dass spezialisierte LLMs einen erheblichen Mehrwert für juristische Anwendungsbereiche bieten. Durch eine präzise Prompt-Formulierung und optimal abgestimmte Parametereinstellungen lassen sich realistische Ergebnisse erzielen, die dem Niveau einer Musterlösung nahekommen können. Auch die Benutzeroberfläche von legalneer.ai überzeugt durch ihre ansprechende und übersichtliche Gestaltung. Die Anwendung ist selbsterklärend und erleichtert den Einstieg, sodass auch Nutzer ohne umfangreiche technische Vorkenntnisse schnell und produktiv damit arbeiten können.
legalneer.ai basiert auf einem interdisziplinären Forschungsprojekt und befindet sich in der Entwicklungsphase. Die KI-generierten Ergebnisse bieten zwar viele Vorteile, können jedoch Fehler enthalten und müssen daher stets von einem Fachexperten auf Richtigkeit und Vollständigkeit überprüft werden. Eine der Herausforderungen ist die mangelnde Reproduzierbarkeit der generierten Texte, da diese nie inhaltlich identisch erstellt werden, was die Validierbarkeit der Ergebnisse erschwert. Hinzu kommt die Möglichkeit von Halluzinationen und Bias, die ungenaue oder verzerrte Antworten zur Folge haben können. Aus diesem Grund ist es unerlässlich, dass die Ergebnisse von Fachanwendern sorgfältig überprüft werden, um Fehler oder Missinterpretationen in der Argumentation und im Ergebnis zu vermeiden.
Unser KI-gestütztes Forschungsprojekt erfüllt hohe Standards in Bezug auf Datensicherheit, Transparenz und Vielseitigkeit. Wir gewährleisten den Schutz Ihrer Daten gemäß den europäischen und deutschen Vorschriften, bieten vollständige Offenlegung unserer Informationsquellen und flexible, individuelle Lösungen. Für die hochgeladenen Daten sind die Nutzer ausdrücklich selbst verantwortlich, insbesondere hinsichtlich der rechtlichen Zulässigkeit, wie etwa in Bezug auf Urheberrechte und andere relevante rechtliche Bestimmungen.
Sofern Nutzer keine ausdrückliche anderweitige Entscheidung treffen, bleibt der eigene hochgeladene Datenbestand ausschließlich dem Nutzer selbst vorbehalten. Es besteht jedoch die Option, dass Nutzer ihre eigenen Daten mit anderen Nutzern teilen, wobei sie die volle Kontrolle darüber behalten, welche Daten sie teilen und unter welchen Bedingungen Im Einklang mit Art. 50 der KI-Verordnung stellt legalneer.ai zudem sicher, dass Nutzer über entsprechende Hinweise in klarer und verständlicher Weise darüber informiert werden, dass sie mit einem KI-System interagieren. Zudem weist die KI darauf hin, dass die generierten Inhalte potenziell fehlerhafte oder verzerrte Ergebnisse enthalten können.
Um legalneer.ai zu nutzen, ist die Website https://legalneer.ai aufzurufen und ein Konto zu erstellen. legalneer.ai befindet sich derzeit in der Entwicklungsphase und wird kontinuierlich weiterentwickelt. Die Plattform bietet eine breite Palette an Anwendungen für verschiedene juristische Aufgaben – von der Beantwortung spezifischer Rechtsfragen über die Erstellung von Gutachten bis hin zur Recherche in Gesetzen und Rechtstexten sowie der KI-gestützten Vertragsprüfung.
Als nicht-kommerzielles Projekt verfolgt legalneer.ai ausschließlich das Ziel, Fachanwendern und Unternehmen bei der Optimierung ihrer Arbeitsprozesse zu unterstützen. Für die Nutzung dieser Dienste erheben wir lediglich die Selbstkosten, ohne kommerzielle Gewinne zu erzielen. Zusätzlich zu unseren Standardlösungen sind wir auch offen für maßgeschneiderte Lösungen für Unternehmen auf der Grundlage von Forschungs- und Entwicklungskooperationen.
Für Anmerkungen, Fragen oder weitere Informationen stehen wir Ihnen gerne unter info@legalneer.ai zur Verfügung.
Applikationen
- LegalAnswer ( Anleitung , App )
- LegalChat ( Anleitung , App )
- LegalOpinion ( Anleitung , App )
- LegalAnswer ( Anleitung , App )
- ContractReview ( Anleitung , App )
- MyData ( Anleitung , App )
Einstellung der Modell-Parameter
Allgemeine Einstellungen
In den allgemeinen Einstellungen können Sie das gewünschte LLM-Modell auswählen. Jede dieser Modellvarianten bietet unterschiedliche Leistungsmerkmale, die sich in Geschwindigkeit, Genauigkeit und Ressourcenbedarf unterschieden können.
- Gpt-4o: Standardmodell mit ausgewogener Leistung und Genauigkeit, geeignet für allgemeine Anwendungen.
- Gpt-4o-mini: Ressourcen-schonend und schneller, ideal für weniger komplexe Aufgaben mit leicht reduzierter Genauigkeit.
- Gpt-4-turbo: Vorgänger von GPT-4o
Erweiterte Einstellungen
- LLM-Temperatur: Ein Schieberegler passt die Kreativität der Antworten an: Ein hoher Wert (z.B. 1) führt zu kreativeren Ausgaben, während ein niedriger Wert (z.B. 0,2) die Ausgaben vorhersehbarer macht und eher deterministisch gestaltet.
- Max. Anzahl Output-Token: Daneben kann die maximale Anzahl der Output-Token festgelegt werden, um die maxiale Länge der Antworten festzulegen.
- Anzahl Quellen RAG (k): Über die Einstellung des k-Werts lässt sich festlegen, wie viele relevante Quellen in die Vorauswahl zur Generierung der Antwort einbezogen werden. Der Wert kann zwischen 1 und 30 eingestellt werden. Der voreingestellte Wert liegt bei 20 Quellen.
- Suchtyp für Quellen: Im ersten Schritt müssen für das RAG relevante Quellen gesucht werden. Dafür können zwei Suchtypen ausgewählt werden, Similiarity und MMR.
- Similarity: Bei dieser Methode wird die Ähnlichkeit zwischen den abgerufenen Quellen und der gestellten Frage oder dem Kontext gemessen.
- MMR: Diese Methode kombiniert Ähnlichkeit mit Diversität, um die Auswahl der Quellen zu optimieren. Durch die Wahl des Suchtyps beeinflusst der Nutzer, wie das Modell Quellen bewertet und auswählt, wobei Similarity auf präzise Übereinstimmungen fokussiert und MMR gleichzeitig auf die Vielfalt und Redundanzvermeidung setzt, um umfassendere und vielfältigere Ergebnisse zu liefern.
- Retrievertyp: Die so gefundenen Quellen werden an über den Retrievertyp entweder nicht mehr geordnet (Base) oder mit unterschiedlichen Ansätzen (Reordering und Rerank) neu geordnet / gewichtet.
- Base: Dabei handelt es sich um die standardmäßige Retrieval-Methode. Das Modell greift auf die Basisdatenbank der Dokumente zu, ohne die Quellen nochmal neu zu ordnen.
- Reordering: Diese Option sortiert die Ergebnisse neu. Nachdem die Informationen abgerufen wurden, wird die Reihenfolge der Quellen angepasst, um möglicherweise relevantere Ergebnisse zu priorisieren.
- Rerank: Bei Rerank werden Quellen und die zugehörige Frage an ein externes Sprachmodell übermittelt, das eine erneute Bewertung vornimmt und dadurch die Qualität sowie Relevanz der Ergebnisse erheblich steigern kann. Zusätzlich bietet Rerank die Möglichkeit, die Anzahl der tatsächlich genutzten Quellen zu reduzieren. Dies geschieht über die Einstellung „Anzahl Quellen RAG nach Rerank-Schritt“ (top-k), bei der die am wenigsten relevanten Quellen entfernt werden. Der Wert für top-k muss dabei stets unter dem ursprünglichen k-Wert liegen.