Fallstudie: Wie ein Venture-Capital-Unternehmen die Due-Diligence-Zeit um 80% reduzierte
Ein Venture-Capital-Unternehmen, das Hunderte von Startup-Bewerbungen pro Quartal verarbeitet, baute eine vollständig automatisierte Due-Diligence-Pipeline. Die Bearbeitungszeit sank von 4 bis 6 Stunden pro Bewerbung auf etwa 15 Minuten. Wichtiger noch: Das Scoring wurde konsistent und die Dokumentationsqualität verbesserte sich durchgehend.
Das Problem
Hoher Deal-Flow, begrenzte Analysten-Kapazität. Das Unternehmen erhielt Hunderte von Startup-Bewerbungen pro Quartal, von denen jede Recherche über fünf oder mehr Datenquellen erforderte: das Pitch Deck, die berufliche Geschichte des Gründerteams, Web-Präsenz, soziale Aktivität und Marktkontext. Eine gründliche Bewertung erforderte vier bis sechs Stunden Analysten-Zeit.
Diese Arbeitsbelastung schuf zwei sich verstärkende Probleme. Erstens konnte das Unternehmen nur einen Bruchteil der eingehenden Bewerbungen auf dem gewünschten Qualitätsniveau bearbeiten. Zweitens variierte die Qualität jeder Bewertung je nach dem Analysten, der sie bearbeitete, wie viel Zeit er hatte und welche Quellen er zu priorisieren pflegte. Es gab kein standardisiertes Scoring-Framework. Eine Bewerbung, die freitagnachmittags auf dem Schreibtisch eines ausgelasteten Analysten landete, bekam eine andere Bewertung als dieselbe Bewerbung, die dienstagmorgens geprüft wurde.
Das Unternehmen hatte keine systematische Möglichkeit, Bewerbungen zu deduplizieren, die es bereits gesehen hatte, was bedeutete, dass Analysten-Zeit gelegentlich für die Neubewertung von Unternehmen aufgewendet wurde, die bereits in der Pipeline waren. Und es gab keine Datenbank vergangener Bewertungen, aus der institutionelles Lernen entstehen konnte. Jede Bewertung begann von vorne.
Das Ziel war nicht, Analysten aus Investitionsentscheidungen zu entfernen. Es war, ihnen strukturierte, konsistente, hochwertige Eingaben zu geben, damit ihre Urteilszeit auf die Entscheidungen verwendet wird, die tatsächlich menschliches Urteilsvermögen erfordern: Partner-Gespräche, Portfolio-Fit, Beziehungskontext, strategisches Timing.
Was wir gebaut haben
Eine vollautomatisierte Due-Diligence-Pipeline. Die Eingabe ist ein rohes Pitch Deck. Die Ausgabe ist eine bewertete Einschätzung mit einer gewichteten Investitionsempfehlung, bereit für die Analysten-Überprüfung.
Das System extrahiert strukturierte Informationen aus Pitch Decks, die als PDFs gespeichert sind. Es reichert diese Informationen aus Web-Quellen mit einem Konfidenz-Schwellenwert von 90% an, filtert unzuverlässige Daten heraus statt sie durchzureichen. Es analysiert Social-Media-Präsenz und -Aktivität auf relevanten Plattformen. Es validiert Team-Informationen gegen professionelle Datenbanken, um Hintergründe zu verifizieren und Inkonsistenzen zu markieren.
Das Scoring-Framework deckt sieben Dimensionen mit differenzierten Gewichtungen ab: Team Assessment trägt mit 3-fachem Gewicht die höchste Last, da Teamqualität der dominante Faktor bei Frühphasen-Investitionsentscheidungen ist. Marktchance, Geschäftsmodell, Traktion und Validierung sowie Wettbewerbsvorteil tragen jeweils 2-faches Gewicht. Tech-Innovation und Token-Ökonomik tragen jeweils 1,5-faches Gewicht.
Das System unterstützt Batch-Verarbeitung von 50 oder mehr Unternehmen gleichzeitig, mit Resume-Fähigkeit, sodass ein unterbrochener Batch dort weitermacht, wo er aufgehört hat. Alle Ausgaben werden in einer Datenbank zur Deduplizierung und Verfolgung protokolliert.
Die Architektur
Die Pipeline läuft durch vier Stufen. Jede Stufe hat definierte Eingaben, definierte Ausgaben und konfidenzbasiertes Filtern, das verhindert, dass minderwertige Daten sich nach vorne ausbreiten.
Stufe 1: Dokumentenextraktion
Pitch Decks werden aus dem Cloud-Speicher abgerufen und für strukturierten Inhalt geparst. Die Extraktion identifiziert Teammitglieder, Marktbehauptungen, Traktions-Metriken, Geschäftsmodell-Beschreibungen und Technologieverweise. Felder, die nicht zuverlässig extrahiert werden können, werden markiert statt mit Schätzungen gefüllt.
Stufe 2: Multi-Source-Anreicherung
Jede extrahierte Entität wird aus externen Quellen angereichert: Web-Suchergebnisse gefiltert nach Relevanz und Konfidenz-Score, Social-Media-Aktivität und Follower-Signale sowie professionelle Datenbankeinträge zur Team-Verifizierung. Quellen werden als unabhängige Signale behandelt und kreuzvalidiert. Ein 90%-Konfidenz-Schwellenwert gilt für webbasierte Daten, bevor sie in die Scoring-Schicht eingehen.
Stufe 3: Gewichtetes mehrdimensionales Scoring
Die angereicherten Daten werden über die sieben Dimensionen bewertet. Jede Dimension produziert einen Score und eine Reihe unterstützender Evidenzpunkte. Das gewichtete Komposit wird berechnet und eine Empfehlungskategorie zugewiesen: Weiterverfolgen, Konditional oder Ablehnen.
Stufe 4: Protokollierung und Deduplizierung
Alle Ausgaben werden in eine strukturierte Datenbank geschrieben. Bevor eine neue Bewertung läuft, prüft das System, ob das Unternehmen bereits bewertet wurde. Falls ja, wird die frühere Bewertung neben der neuen aufgezeigt. Das baut institutionelles Gedächtnis auf statt jede Bewertung als isoliertes Ereignis zu behandeln.
Ergebnisse
Die Zeitreduktion war erheblich, aber nicht der primäre Wert. Konsistenz war es. Jede Bewerbung läuft jetzt durch dasselbe sieben-dimensionale Framework mit derselben Gewichtungslogik. Die Dokumentationsqualität verbesserte sich, weil das System strukturierte Evidenz für jede Bewertung produziert, statt sich auf Analysten-Notizen variierender Tiefe zu verlassen.
Die Analysten-Zeit verlagerte sich von Datenzusammenstellung und -formatierung auf Aktivitäten mit höherem Wert: Partner-Meetings, Portfolio-Unternehmens-Support, Marktkontext-Analyse und Beziehungsmanagement mit Gründern.
Das Deduplizierungs-Logging deckte auch ein Muster auf, das das Unternehmen nicht verfolgt hatte: ein nicht unerheblicher Prozentsatz eingehender Bewerbungen stammte von Unternehmen, die bereits in der Datenbank waren, teils unter leicht abweichenden Namen.
Dieses System war eines von drei Produktions-KI-Systemen, die für das Unternehmen innerhalb von 12 Monaten geliefert wurden, Teil eines umfassenderen KI-Abteilungsaufbaus, der auch Team-Schulungen und operative KI-Infrastruktur umfasste.
Was es zum Erfolg gemacht hat
Drei Dinge unterschieden dieses Projekt von ähnlich aussehenden Projekten, die scheitern.
Das Scoring-Framework wurde definiert, bevor eine Zeile Code geschrieben wurde. Die sieben Dimensionen und ihre Gewichtungen wurden vom Investment-Team als Spiegelbild ihrer tatsächlichen Entscheidungskriterien vereinbart. Das verhinderte das häufigste Versagen in automatisierten Scoring-Systemen: den Aufbau eines Systems, das optimiert, was leicht messbar ist, statt was die Entscheidung tatsächlich antreibt. Diese Einigung erforderte zwei Sitzungen mit dem Investment-Team. Das waren die wertvollsten zwei Sitzungen im Projekt.
Datenquellen wurden individuell validiert, bevor sie kombiniert wurden. Jede Anreicherungsquelle wurde unabhängig auf Zuverlässigkeit und Abdeckung getestet. Quellen, die für bestimmte Unternehmenstypen unzuverlässig waren, wurden mit expliziter Fallback-Logik behandelt, statt selbstbewusst klingende Ausgaben aus schlechten Eingaben zu produzieren.
Die menschliche Überprüfung blieb der letzte Schritt für Investitionsentscheidungen. Das System produzierte strukturierte Empfehlungen. Es traf keine Investitionen. Analysten konnten die Evidenz hinter jedem Score sehen, sie übersteuern, wenn ihr Kontext es rechtfertigte, und qualitatives Urteilsvermögen hinzufügen, das das System nicht erfassen konnte. Das System ergänzte den Prozess. Es ersetzte nicht das Urteilsvermögen am Ende.