Halliburton hat in Zusammenarbeit mit dem AWS Generative AI Innovation Center einen KI-Assistenten für die cloud-native Seismic Engine entwickelt. Das System ermöglicht die Erstellung komplexer seismischer Verarbeitungs-Workflows über natürliche Sprache.
Systemarchitektur
Die Lösung basiert auf mehreren aufeinander abgestimmten Schichten:
- Amazon Bedrock dient als Fundament für den Zugriff auf Foundation Models.
- Ein Intent Router mit Amazon Nova Lite klassifiziert eingehende Anfragen in Workflow-Generierung, Q&A oder allgemeine Fragen.
- Für Dokumentenbasierte Fragen nutzt das System Amazon Bedrock Knowledge Bases mit Amazon OpenSearch Serverless als Vektordatenbank und Amazon Titan Text Embeddings V2. Die Antwortgenerierung erfolgt mit Claude 3.5 Haiku unterstützt durch mehrstufige Konversationen und Inline-Zitate.
- Für die Workflow-Generierung kommen LLM-Agenten (Claude 3.5 Sonnet V2 und Claude 3.5 Haiku), orchestriert durch LangChain, zum Einsatz. Diese Agenten sind mit 82 spezifischen Seismic Engine Tools verbunden und generieren ausführbare YAML-Definitionen.
Die gesamte Anwendung wird über AWS App Runner als FastAPI-Service betrieben. Der Chat-Verlauf und Interaktionsprotokolle werden in Amazon DynamoDB gespeichert.
Leistungsmerkmale
Die KI-gestützte Workflow-Generierung reduziert die Erstellungszeit von mehreren Minuten auf Sekunden. Die Lösung erreicht dabei höhere Erfolgsraten als sowohl neue als auch erfahrene menschliche Anwender bei der manuellen Konfiguration.
Phillip Norlund, Manager of Subsurface Technologies bei Halliburton Landmark, sieht in der Zusammenarbeit eine Beschleunigung der Workflows zur Untergrundinterpretation um eine Größenordnung. Slim Bouchrara, Senior Product Owner of Subsurface R&D bei Halliburton Landmark, betont die verbesserte Zugänglichkeit und Produktivität durch die konversationelle Schnittstelle.
Übertragbarkeit
Der gewählte agentenbasierte Ansatz mit Retrieval Augmented Generation und orchestrierten LLM-Agenten ist auf andere technische Domänen mit komplexen, mehrstufigen Workflows übertragbar.
Quelle: AWS AI Blog
FAQ
Welche AWS-Dienste bilden die technische Grundlage des Halliburton KI-Assistenten? Amazon Bedrock, Amazon Bedrock Knowledge Bases, Amazon Nova Lite, Amazon DynamoDB, Amazon OpenSearch Serverless, Amazon Titan Text Embeddings V2 und AWS App Runner.
Wie funktioniert die Unterscheidung zwischen Workflow-Generierung und Dokumenten-Q&A? Ein Intent Router auf Basis von Amazon Nova Lite klassifiziert die Benutzeranfrage und leitet sie an die jeweilige Verarbeitungskette weiter.
Welche Modelle werden für die Workflow-Generierung eingesetzt? Claude 3.5 Sonnet V2 und Claude 3.5 Haiku, orchestriert durch das LangChain-Framework.