Messescanner
Ein intelligenter Lead-Qualifizierungs-Workflow auf Basis von n8n AI Agent, Bright Data und GPT-5-mini
(Dieser Beitrag wurde von einem Hackaton-Beitrag von uns übernommen - Sie können den Originalbeitrag aufrufen hier)
Messen sind Goldminen für die Geschäftsentwicklung, aber die manuelle Suche nach Hunderten von Ausstellern ist zeitaufwändig und ineffizient. Dieser Workflow automatisiert den gesamten Prozess der Akquise von Messeteilnehmern.
Was es bewirkt
Der Arbeitsablauf scannt und qualifiziert auf intelligente Weise potenzielle Kunden aus jeder Ausstellerliste einer Messe:
- Automatisierte Datenextraktion: Verwendet den Web Scraper von Bright Data, um die vollständige Ausstellerliste von der Messe-Website abzurufen, und extrahiert dann Firmennamen, Beschreibungen, Standnummern und Website-URLs mithilfe von HTML-Parsing
- Intelligente Chargierung: Verarbeitet Unternehmen in konfigurierbaren Chargen (derzeit auf eine kleine Anzahl zu Testzwecken eingestellt, leicht anpassbar), um API-Kosten während der Entwicklung zu verwalten
- KI-gestützte Forschung & Qualifizierung: Jedes Unternehmen durchläuft einen KI-Agenten, der:
- Durchführung von Web-Recherchen mit SerpAPI und gezieltem Website-Scraping
- Bewertet die Unternehmensgröße (klein/mittel/groß auf der Grundlage der Mitarbeiterzahl)
- Bewertet ihre öffentliche Haltung zu Daten-, KI- und Automatisierungsinitiativen
- Bewertet jedes Unternehmen (niedrig/mittel/hoch) als potenziellen Kunden auf der Grundlage Ihrer spezifischen Kriterien
- Begründungen für jede Punktzahl, um die Priorisierung von Folgemaßnahmen zu erleichtern
- Automatisierte Dokumentation: Die Ergebnisse werden automatisch an ein Google Sheet mit strukturierten Daten, einschließlich Unternehmensdetails, Qualifikationsbewertungen und KI-Argumenten, angehängt.
Die Intelligenzschicht
Der KI-Agent ist mit detailliertem Kontext über mein Unternehmen (lyfX.ai) konfiguriert. Er sucht gezielt nach Unternehmen, die unserem Profil und einem “idealen” Kundenprofil entsprechen: kleine bis mittelgroße Unternehmen mit einem modernen, zukunftsorientierten Ansatz, die die Zusammenarbeit mit spezialisierten, hochkarätigen Teams schätzen.
Auf diese Weise entsteht eine vorqualifizierte, nach Prioritäten geordnete Liste von Standbesuchen und Follow-up-Zielen, die stundenlange manuelle Recherchen in ein automatisiertes, intelligentes Filtersystem verwandelt.
Demo
Video
https://www.loom.com/share/978e4d64c11b405aa85c8d72aca8b6a1?sid=0be6cc43-ea17-461a-9f1d-4e563cd8edac
n8n Arbeitsablauf
https://gist.github.com/andremoreira73/fe972f825a5f41e36c8df5ad7cb1f2bb
Beachten Sie, dass der Arbeitsablauf bereinigt wurde, damit jeder ihn an seinen eigenen Anwendungsfall anpassen kann. Ich habe die Eingabeaufforderungen intakt gelassen, da sie anderen als Inspiration dienen können.
Technische Umsetzung
Bei der Entwicklung dieses Arbeitsablaufs habe ich auf Einfachheit geachtet - die Implementierung sollte sauber und gleichzeitig effektiv sein. Das HTML-Parsing und die Codeumwandlungen sind minimal, gerade genug, um die Daten zu strukturieren und sie für den KI-Agenten verdaulich zu machen. (Das JavaScript im Code-Knoten wurde freundlicherweise von meinem guten Freund Claude vorbereitet 😊)
Wahl des Modells: Ich verwende GPT-5-mini, das ich in anderen Konstellationen getestet habe. Was ich bei Agenten-Workflows besonders schätze, ist OpenAIs konsistente Balance zwischen Argumentationsfähigkeit und zuverlässiger strukturierter Ausgabeformatierung. Nach fast 2 Jahren mit der OpenAI-API gibt es auch den praktischen Vorteil der Vertrautheit und der Entwicklungsgeschwindigkeit.
Speicherarchitektur: Diese erste Version läuft zustandslos - jede Unternehmensbewertung ist unabhängig. Für eine künftige Version plane ich, Speicher für anspruchsvollere Recherchemuster und Querverweise zwischen Unternehmen zu implementieren.
Werkzeugstapel: Mit nur zwei Werkzeugen konnte ich mich darauf konzentrieren:
- SerpAPI für die Websuche - zuverlässig und schnell für die internetweite Suche
- Bright Data für gezieltes Scraping - behandelt Websites, die der Agent möglicherweise überprüfen möchte
System-Anweisungen: Mein Lieblingsteil! Hier geschieht die Magie - eine sorgfältig vorbereitete Systemabfrage mit Anweisungen, die unser ideales Kundenprofil und die Bewertungskriterien kodieren und eine konsistente und relevante Qualifikationsbewertung sicherstellen.
Das Schöne an diesem Ansatz ist seine Flexibilität - tauschen Sie die Messe-URL aus, passen Sie das Zielprofil in den Systemanweisungen an, und Sie haben ein wiederverwendbares Lead-Qualifizierungssystem für jede Veranstaltung.
Der Benutzer stellt eine Liste von Unternehmen zur Verfügung, die an einer Messe teilnehmen werden. Die Liste enthält den Namen, die Beschreibung, den Stand und die Website des Unternehmens.
Ich werde mein Unternehmen (lyfX.ai) auf der Messe vertreten.
Über lyfX.ai: Wir helfen Unternehmen, Daten- und KI-Lösungen zu integrieren, die ihre geschäftlichen Herausforderungen angehen und messbare Ergebnisse liefern. Durch die Verschmelzung von fundiertem Geschäftssinn, Fachwissen, Datenwissenschaft und moderner KI liefern wir Strategien, die das Wachstum fördern, die Effizienz steigern und die Rentabilität erhöhen. Wir verfügen über umfassendes Know-how in den Bereichen Chemie, Verfahrenstechnik, Düngemittel und angrenzenden Branchen.
Wir sind ein kleines Team mit sehr hochkarätigen Mitarbeitern: Einer hat einen Doktortitel und ist Professor an einer renommierten Universität in Deutschland, der andere hat eine lange erfolgreiche Karriere in der Chemie- und Düngemittelindustrie hinter sich. Unsere Teammitglieder verfügen über verschiedene Zertifizierungen: z.B. Google Associate Cloud Engineer, Google Professional ML Engineer, u.a..
Wir beherrschen Python, LangGraph, n8n, django.
Hintergrund >
Aus der Liste der Unternehmen herausfinden, welche wir als potentielle Neukunden ansprechen sollen.
Zielsetzung >
- kleines bis mittelgroßes Unternehmen
- äußert öffentlich ein hohes Interesse an Daten, KI, Automatisierung
- modern und zukunftsorientiert
- keine Angst vor der Zusammenarbeit mit einem kleinen, hochkarätigen Team
Zielkundenprofil >
Gehen Sie für jedes Unternehmen in der Liste wie folgt vor:
1) Finden Sie heraus, was sie tun.
2) Handelt es sich um ein kleines (weniger als 50 Beschäftigte), mittleres (zwischen 10 und 1000 Beschäftigte) oder großes Unternehmen (über 1000 Beschäftigte)?
3) Schätzen Sie auf der Grundlage Ihrer Erkenntnisse ein, wie dieses Unternehmen als Zielkundenprofil abschneidet: niedrig, mittel oder hoch?
Seien Sie gründlich und halten Sie sich an die Fakten.
Wenn Sie etwas nicht wissen oder nicht finden, lassen Sie es frei.
Anleitung >
SerpApi: Google als Suchmaschine für die Internetsuche
Scraper: Bei Bedarf eine bestimmte URL scrapen
JSON-Format mit den Elementen:
- Name
- Beschreibung
- Stand
- Website
- Punktzahl als Zielkundenprofil
- Begründung für die Bewertung
Antwortformat >
Bright Data Verified Node
Ich habe Bright Data an zwei kritischen Punkten im Arbeitsablauf eingesetzt:
- Erste Datenextraktion: Bright Data's Web Scraper übernimmt die komplette Extraktion der Ausstellerliste von Messe-Webseiten und analysiert zuverlässig die Seiten (JavaScript-lastige Seiten, dynamische Inhalte, etc.).
- Als Agententool für seine Recherchen: Bright Data ermöglicht der KI das gezielte Scraping einzelner Unternehmenswebsites auf Abruf. So kann der Agent in Echtzeit öffentliche Informationen über Unternehmensgröße, technologische Schwerpunkte und Initiativen direkt an der Quelle sammeln.
Die Integration war einfach. Die n8n-Knoten von Bright Data mussten nur minimal konfiguriert werden und bewältigten komplexe Websites, die normalerweise eine Browser-Automatisierung erfordern.
Die Zuverlässigkeit bedeutet, dass selbst bei der Verarbeitung von Hunderten von Ausstellern keine manuellen Eingriffe erforderlich sind, was das System ideal für Produktionsanwendungen macht, bei denen es auf Konsistenz ankommt.
Reise
Dieses Projekt war eine ausgezeichnete Gelegenheit, n8n und Bright Data eingehend zu erkunden. Obwohl ich in LangGraph investiert habe, habe ich festgestellt, dass n8n sich beim Rapid Prototyping in einer Weise auszeichnet, wie es LangGraph nicht tut. Meine übliche Workflow-Entwicklung umfasst zahlreiche Jupyter-Notebooks zum Experimentieren mit Graphen und Agenten, aber n8n hat mir einen neuen Weg eröffnet: Ich kann jetzt funktionale Prototypen in Stunden statt in Tagen erstellen und sie dann entweder in LangGraph produktiv machen oder direkt in n8n laufen lassen.
Der Einsatz von Bright Data war eine großartige Erfahrung. Zuvor hatte ich andere Scraping-Lösungen verwendet, aber der Ansatz von Bright Data ist wirklich elegant und robust. Der KI-gestützte Collector Builder hat mich besonders beeindruckt (auch wenn er für diesen Workflow letztlich nicht erforderlich war). Was mich besonders beeindruckt hat, ist die Vielseitigkeit der Plattform. Das Tool hat sich definitiv einen festen Platz in meinem Tech-Stack verdient.
Nächste Schritte
Die Kombination aus der visuellen Workflow-Erstellung von n8n und der zuverlässigen Datenextraktion von Bright Data schafft eine leistungsstarke Umgebung, die die Lücke zwischen “schnellem Experiment” und “produktionsreifer Lösung” schließt.”
Dieser "Sweet Spot" ist genau das, was ich für meine Automatisierungsprojekte gesucht habe. Ich habe bereits ein paar weitere Workflows für die Geschäftsentwicklung erstellt und freue mich darauf, sie im Laufe der Zeit mit anderen zu teilen!
