Zum Inhalt springen

AI-Hub

http://intelego.solutions/web/image/product.template/871/image_1920?unique=7f394bf

Modulare AI-Serviceplattform für Unternehmen

Monat: 528,00 €

1.055,00 €

Einmalige Einrichtungsgebühr:

Nicht zum Verkauf verfügbar

  • Location
  • Modul

Diese Kombination existiert nicht.

Browser Linux Lizenzfrei OpenSource

AI-Hub ist eine modulare AI-Plattform, mit der Unternehmen KI-Dienste zentral, sicher und nachvollziehbar bereitstellen können. Statt viele einzelne Insellösungen zu betreiben, bündelt AI-Hub alle KI-Funktionen hinter einem gemeinsamen Proxy, integriert sie in bestehende Prozesse und schafft klare Verantwortlichkeiten für Kosten, Daten und Qualität.

Die Plattform gliedert sich in vier Module:

Core – Technische BasisStellt alle Grundfunktionen bereit, um KI sicher und effizient zu betreiben.

  • Chat-Proxy als zentrale AI-Schnittstelle für Mitarbeiter und Systeme
  • Routing zu passenden Modellen (Cloud und On-Prem)
  • Integration von Open-Source- und Enterprise-Modellen
  • Sicherheitsfunktionen wie Authentifizierung, Logging und Zugriffssteuerung

Assist – AI-Support-AnwendungenUnterstützt den Aufbau intelligenter Support- und Serviceprozesse.

  • AI-gestützte Helpdesk- und Chatbot-Lösungen
  • FAQ- und Knowledge-Bots auf Basis vorhandener Wissensquellen
  • Automatisierte Bearbeitung wiederkehrender Anfragen und Workflows

Insights – AI für eigene Business-DatenMacht Daten aus Fachsystemen, Logs und Prozessen auswertbar.

  • Analytics und BI auf Basis eigener Business-Daten
  • Dashboards und KPIs für Management und Fachbereiche
  • Muster- und Anomalieerkennung zur Optimierung von Betrieb und Geschäftsprozessen

Studio – Generative AI & MedienErweitert AI-Hub um kreative und generative Funktionen.

  • Bilderzeugung für Marketing, Produkt, Design und Kommunikation
  • Unterstützung von Multimedia- und Content-Workflows
  • Orchestrierung generativer Pipelines für wiederkehrende Kreativaufgaben
  • Business Automation: Automatisiertes Setup
  • Business Implementation: An Geschäftsprozesse angepasst
  • Moderne Softwareentwicklung mit DevOps: Effizienter Betrieb und Weiterentwicklung
  • Stand der Technik nach §32 DSGVO: Rechtssichere Sicherheitsmaßnahmen
  • Benutzerverwaltung: Vergabe von Zugriffsrechten und Rollen
  • Open Source: Quelloffen und anpassbar
  • Knowledge Base: Umfangreiche Dokumentation verfügbar
  • Community: Aktive Entwickler- und Nutzerbasis
  • Verschlüsselung: Unterstützt SSL/TLS für sichere Verbindungen
  • Modular: Flexibel erweiterbare Proxy-Architektur
  • Skalierbar: Auf den aktuellen Bedarf anpassbare Architektur
  • Kompatibilität: Gut in heterogene Umgebungen integrierbar
  • Vollständiger Betrieb auf Managed Business Plattform
  • Bereitstellung des Services innerhalb von 3 Geschäftstagen
  • Persönlicher Ansprechpartner während der Bürozeiten (8-12 Uhr und 13-17 Uhr)
  • Reaktion am selben Geschäftstag
  • Remote-Zugriff nach Vereinbarung
  • ISMS-Inventarisierung zur Leistungserfüllung
  • Datenverarbeitung nach Art. 30 DSGVO
  • Kontinuierliche Überwachung der Diensteverfügbarkeit
  • Regelmäßige Aktualisierung der Anwendungssoftware
  • Mehrstufige Sicherungen und Löschung nach Art.17 EU-DSGVO
  • Datenüberlassung und -Löschung bei Kündigung nach DSGVO
  • Die Kündigungsfrist beträgt 1 Monat

Das Core-Modul bildet die technische Basis und ist zwingend erforderlich. Alle anderen Module (Assist, Insights, Studio) sind optional und können je nach Bedarf hinzugefügt werden.

Die Setup-Gebühr deckt die einmalige Einrichtung der AI-Arbeitsumgebung ab. Sie umfasst – je nach gewähltem Modul – immer den vollständigen technischen Stack, aber keine individuellen Use‑Cases oder Fachkonzepte.

Die genaue Zusammenstellung der Toolbox hängt vom Modul und den spezifischen Projektanforderungen ab:

Core

  • LiteLLM – Routing / Proxy für KI-Modelle (OpenAI, Anthropic, Azure, lokale Modelle)
  • OpenWebUI – zentrales Web-Frontend für Chat & Interaktion
  • Ollama – lokale Modelle (z. B. Llama, Mistral, Phi) für On‑Prem‑Betrieb
  • vLLM / Text-Generation-Inference – performante Inferenz-Backends für große Sprachmodelle
  • Nginx / Traefik – Reverse Proxy für TLS, Mandantenfähigkeit und Zugriffssteuerung
  • Keycloak / Authentik – zentrale Identity- und Rechteverwaltung
  • etc.

Assist (AI-Support-Anwendungen)

  • AI-gestützte Helpdesk- und Chatbot-Plattformen (z. B. OpenWebUI-Assistants, Rasa, Botpress)
  • AI-Funktionen in Ticket-/Service-Desk-Systemen (z. B. Zammad, Jira Service Management mit KI-Add-ons)
  • Wissensdatenbanken als Kontextquelle (z. B. Outline, Confluence, Wiki-Systeme)
  • Retrieval-Augmented-Generation (RAG)-Stacks (z. B. LlamaIndex, LangChain) für FAQ-/Knowledge-Bots
  • Workflow-/Automation-Engines (z. B. n8n, Node-RED) zur automatisierten Fallbearbeitung
  • etc.

Insights (AI für eigene Business-Daten)

  • Log- und Event-Analyse (z. B. Loki, Elasticsearch/OpenSearch, Graylog)
  • Dashboards & BI für Business-Kennzahlen (z. B. Grafana, Metabase, Power BI)
  • Vektor-Datenbanken zur semantischen Analyse (z. B. Qdrant, Weaviate, pgvector)
  • Feature Stores / Data Lake-Anbindung (z. B. DuckDB, Parquet, object storage)
  • AI-gestützte Anomalie- und Mustererkennung über Betriebs- und Geschäftsdaten
  • etc.

Studio (Generative AI & Medien)

  • Bild-/Media-Modelle (z. B. Stable Diffusion, FLUX, SDXL, LCM-Varianten)
  • Prompt- und Workflow-Orchestrierung (z. B. ComfyUI, InvokeAI, n8n, Node-RED)
  • Audio-/Speech-Modelle (z. B. Whisper für Transkription, TTS-Engines)
  • Assetspeicher (z. B. S3-kompatibler Storage, Git/Asset-Repo) für generierte Inhalte
  • etc.

Sonstiges:

  • Systemvoraussetzungen: Managed Linux - Physical Dedicated (Level 4)
  • Die Kündigungsfrist beträgt 1 Monat
  • Die Lizenzierung hängt von der gewählten Ausstattung ab. In der Basisversion ist AI-Hub lizenzfrei und Open Source. Für erweiterte Funktionen oder spezielle Module können zusätzliche Lizenzkosten anfallen.
  1. Kann AI-Hub auch rein lokal betrieben werden?Ja, durch die Integration von Ollama und lokalen Modellen kann AI-Hub vollständig On‑Premises ohne Verbindung zu externen Cloud-KI-Diensten betrieben werden.
  2. Wie wird die Nutzung überwacht und protokolliert?Über zentrales Logging und Live-Metriken. Alle Anfragen können nachverfolgt, ausgewertet und bei Bedarf revisionssicher archiviert werden.
  3. Ist die Lösung DSGVO-konform?Ja, insbesondere bei rein lokaler Nutzung. AI-Hub unterstützt technische Maßnahmen nach Art. 32 DSGVO (z. B. Verschlüsselung, Zugriffskontrolle, Protokollierung). Eine vollständige Bewertung erfolgt im jeweiligen Kundenkontext.
  4. Können Budgetlimits flexibel angepasst werden?Ja, Limits und Quoten können pro Benutzer, Gruppe oder Anwendung gesetzt und jederzeit angepasst werden (z. B. Token-Kontingente, Kostenobergrenzen).
  5. Unterstützt AI-Hub mehrere KI-Anbieter parallel?Ja, über den Proxy (z. B. LiteLLM) können unterschiedliche Anbieter und Modelltypen parallel eingebunden und pro Use Case ausgewählt werden.
  6. Welche Daten werden an externe KI-Dienste übermittelt?Das ist konfigurierbar. AI-Hub erlaubt es, Kontexte zu maskieren, zu kürzen oder ausschließlich lokale Modelle zu verwenden, wenn keine Daten die eigene Umgebung verlassen sollen.
  7. Kann ich eigene Wissensquellen für AI-Assistants verwenden?Ja, über RAG-Stacks (z. B. LlamaIndex, LangChain) können Dokumente, Wikis oder FAQ-Datenbanken eingebunden und für Assistants nutzbar gemacht werden.
  8. Wie integriere ich AI-Hub in bestehende Systeme?Über standardisierte Schnittstellen (HTTP/REST, Webhooks) und Integrations-Tools wie n8n oder Node‑RED. Typische Ziele sind Helpdesk-Systeme, Portale oder Fachanwendungen.
  9. Wie skaliert AI-Hub bei steigender Nutzung?Die Architektur ist modular und horizontal skalierbar. Modell-Backends und Proxy-Komponenten können getrennt skaliert und auf mehrere Server oder Cluster verteilt werden.
  10. Gibt es eine Test- oder Sandbox-Umgebung?Ja. Zusätzlich zur Produktionsumgebung kann auf Wunsch eine Test- oder Sandbox-Instanz bereitgestellt werden, in der neue Modelle, Konfigurationen und Workflows sicher erprobt werden können.
  • OpenAI Enterprise Gateway – proprietär, jedoch ohne Kontrolle
  • Azure OpenAI-Proxy – in Cloud-Umgebungen integriert, aber weniger flexibel bei lokalen Setups und riskant bzgl. Datenschutz