Was ist MCP?

2025-04-24 08:49:49
Fortgeschrittene
KITechnologie
MCP (Model Context Protocol) ist ein aufstrebendes Feld, das in letzter Zeit die Aufmerksamkeit von Web2-Tech-Unternehmen wie Google auf sich gezogen hat. Der Artikel bietet eine eingehende Analyse der Prinzipien und Positionierung des MCP-Protokolls und erläutert, wie es großen Sprachmodellen (LLMs) Kontext durch standardisierte Kommunikation mit Anwendungen liefert. Er untersucht auch das Team hinter DARK, MtnDAO, und wie die starken Umsetzungsfähigkeiten des Gründers Edgar Pavlovsky und der zukünftige Ausblick des Teams möglicherweise den Preis des Tokens in die Höhe treiben könnten.

Weiterleitung des Originaltitels 'Künstliche Intelligenz's USB-C-Standard: Verständnis von MCP'

Während meiner Jahre bei Alliance habe ich unzählige Gründer dabei beobachtet, wie sie ihre eigenen spezialisierten Tools und Datenintegrationen in ihre KI-Agenten und Workflows eingebaut haben. Allerdings sind diese Algorithmen, Formalisierungen und einzigartigen Datensätze hinter benutzerdefinierten Integrationen versteckt, die nur wenige Menschen jemals nutzen würden.

Dies hat sich mit dem Aufkommen des Model Context Protocol rapide verändert. MCP wird als ein offenes Protokoll definiert, das standardisiert, wie Anwendungen kommunizieren und Kontext für LLMs bereitstellen. Eine Analogie, die mir sehr gefallen hat, ist, dass "MCPs für KI-Anwendungen wie USB-C für Hardware" sind; das ist standardisiert, plug-and-playfähig, vielseitig und transformierend.

Warum MC?

LLMs wie Claude, OpenAI, LLAMA usw. sind unglaublich leistungsstark, aber sie sind durch die Informationen begrenzt, auf die sie im Moment zugreifen können. Das bedeutet, dass sie in der Regel Wissensgrenzen haben, nicht unabhängig im Web surfen können und keinen direkten Zugriff auf Ihre persönlichen Dateien oder spezialisierte Tools ohne eine Form der Integration haben.

Insbesondere standen Entwickler zuvor vor drei großen Herausforderungen bei der Verbindung von LLMs mit externen Daten und Tools:

  1. Integrationskomplexität: Der Aufbau separater Integrationen für jede KI-Plattform (Claude, ChatGPT usw.) erforderte eine doppelte Anstrengung und die Pflege mehrerer Codebasen.
  2. Tool Fragmentation: Jede Tool-Funktionalität (z.B. Dateizugriff, API-Verbindungen usw.) benötigte ihren eigenen spezialisierten Integrationscode und Berechtigungsmodell
  3. Begrenzte Verteilung: Spezialisierte Werkzeuge waren auf spezifische Plattformen beschränkt, was ihre Reichweite und Auswirkungen einschränkte

MCP löst diese Probleme, indem es einen standardisierten Weg bietet, damit jede LLM sicher auf externe Tools und Datenquellen über ein gemeinsames Protokoll zugreifen kann. Nun, da wir verstehen, was MCP macht, werfen wir einen Blick darauf, was die Leute damit bauen.

Was bauen die Leute mit MCP?

Das MC-Ökosystem explodiert derzeit vor Innovationen. Hier sind einige aktuelle Beispiele, die ich auf Twitter gefunden habe, bei denen Entwickler ihre Arbeit präsentieren.

  • KI-unterstützte Storyboarderstellung: Eine MC-Integration, die es Claude ermöglicht, ChatGPT-4o zu steuern, um automatisch vollständige Storyboards im Ghibli-Stil ohne menschliches Eingreifen zu generieren.
  • ElevenLabs Sprachintegration: Ein MCP-Server, der Claude und Cursor über einfache Texteingaben Zugriff auf ihre gesamte KI-Audio-Plattform gewährt. Die Integration ist leistungsstark genug, um Sprachassistenten zu erstellen, die ausgehende Telefonanrufe tätigen können. Dies zeigt, wie MCP aktuelle KI-Tools in den Audiobereich erweitern kann.
  • Browser-Automatisierung mit Playwright: Ein MCP-Server, der es KI-Agenten ermöglicht, Webbrowser zu steuern, ohne Screenshots oder Bildmodelle zu benötigen. Dies eröffnet neue Möglichkeiten für die Webautomatisierung, indem LLMs eine direkte Steuerung über Browserinteraktionen auf standardisierte Weise erhalten.
  • Persönliche WhatsApp-Integration: Ein Server, der eine Verbindung zu persönlichen WhatsApp-Konten herstellt und es Claude ermöglicht, Nachrichten und Kontakte zu durchsuchen sowie neue Nachrichten zu senden.
  • Airbnb Suchwerkzeug: Ein Airbnb-Apartment-Suchwerkzeug, das die Einfachheit und Leistung von MC für die Erstellung praktischer Anwendungen zeigt, die mit Webdiensten interagieren.
  • Robotersteuerungssystem: Ein MCP-Controller für einen Roboter. Das Beispiel überbrückt die Kluft zwischen LLMs und physischer Hardware und zeigt das Potenzial von MCP für IoT-Anwendungen und Robotik.
  • Google Maps und lokale Suche: Durch die Verbindung von Claude mit Google Maps-Daten wird ein System erstellt, das lokale Unternehmen wie Cafés finden und empfehlen kann. Diese Erweiterung ermöglicht KI-Assistenten mit standortbasierten Diensten.
  • Blockchain-Integration: Das Lyra MCP-Projekt bringt MCP-Funktionen auf StoryProtocol und andere Web3-Plattformen. Dies ermöglicht die Interaktion mit Blockchain-Daten und Smart Contracts und eröffnet neue Möglichkeiten für dezentralisierte Anwendungen, die durch KI verbessert werden.

Was diese Beispiele besonders überzeugend macht, ist ihre Vielfalt. In der kurzen Zeit seit ihrer Einführung haben Entwickler Integrationen in den Bereichen kreative Medienproduktion, Kommunikationsplattformen, Hardwaresteuerung, Standortdienste und Blockchain-Technologie geschaffen. All diese vielfältigen Anwendungen folgen demselben standardisierten Protokoll und zeigen die Vielseitigkeit und das Potenzial von MCP, zu einem universellen Standard für die Integration von KI-Tools zu werden.

Für eine umfassende Sammlung von MC-Servern, schauen Sie sich die anoffizieller MCP-Server-Repository auf GitHubMit einem sorgfältigen Haftungsausschluss sollten Sie vorsichtig sein, bevor Sie einen MC-Server verwenden und darauf achten, was Sie ausführen und welche Berechtigungen Sie erteilen.

Versprechen vs. Hype

Bei jeder neuen Technologie lohnt es sich zu fragen: Ist MCP wirklich transformierend oder nur ein weiteres überhyptes Werkzeug, das verschwinden wird?

Nachdem ich zahlreiche Startups in diesem Bereich beobachtet habe, glaube ich, dass MCP einen echten Wendepunkt für die KI-Entwicklung darstellt. Im Gegensatz zu vielen Trends, die eine Revolution versprechen, aber inkrementelle Veränderungen bringen, ist MCP ein Produktivitätsschub, der ein grundlegendes Infrastrukturproblem löst, das das gesamte Ökosystem zurückgehalten hat.

Was es besonders wertvoll macht, ist, dass es nicht versucht, bestehende KI-Modelle zu ersetzen oder mit ihnen zu konkurrieren, sondern sie alle nützlicher macht, indem es sie mit externen Tools und den Daten, die sie benötigen, verbindet.

Das gesagt, gibt es berechtigte Bedenken hinsichtlich Sicherheit und Standardisierung. Wie bei jedem Protokoll in seinen Anfangstagen werden wir wahrscheinlich wachsende Probleme sehen, während die Community bewährte Verfahren für Audits, Berechtigungen, Authentifizierung und Serververifizierung erarbeitet. Der Entwickler muss der Funktionalität dieser MC-Server vertrauen und sollte ihnen nicht blind vertrauen, insbesondere da sie zahlreich geworden sind.Dieser Artikeldiskutiert einige der kürzlich durch Blindy aufgedeckten Schwachstellen bei MCP-Servern, die selbst bei lokalem Betrieb nicht sorgfältig geprüft wurden.

Die Zukunft von KI ist kontextbezogen

Die leistungsstärksten KI-Anwendungen werden keine eigenständigen Modelle sein, sondern Ökosysteme spezialisierter Fähigkeiten, die durch standardisierte Protokolle wie MCP verbunden sind. Für Startups bietet MCP die Möglichkeit, spezialisierte Komponenten zu entwickeln, die in diese wachsenden Ökosysteme passen. Es ist eine Gelegenheit, Ihr einzigartiges Wissen und Ihre Fähigkeiten zu nutzen und gleichzeitig von den massiven Investitionen in Grundlagenmodelle zu profitieren.

Ausblickend können wir erwarten, dass MCP zu einem grundlegenden Bestandteil der KI-Infrastruktur wird, ähnlich wie es bei HTTP für das Web der Fall war. Mit zunehmender Reife des Protokolls und steigender Akzeptanz werden wahrscheinlich ganze Marktplätze spezialisierter MCP-Server entstehen, die es KI-Systemen ermöglichen, praktisch auf jede vorstellbare Fähigkeit oder Datenquelle zuzugreifen.

Anhang

Für diejenigen, die daran interessiert sind, zu verstehen, wie MC tatsächlich unter der Oberfläche funktioniert, bietet der folgende Anhang eine technische Aufschlüsselung seiner Architektur, seines Arbeitsablaufs und seiner Implementierung.

Unter den Hauben von MCP

Ähnlich wie HTTP den Standard für den Zugriff des Webs auf externe Datenquellen und Informationen festgelegt hat, tut dies MCP für KI-Frameworks, indem es eine gemeinsame Sprache schafft, die es verschiedenen KI-Systemen ermöglicht, nahtlos zu kommunizieren. Lassen Sie uns also erkunden, wie es das macht.

MC-Architektur und -Fluss

Die Hauptarchitektur folgt einem Client-Server-Modell mit vier Schlüsselkomponenten, die zusammenarbeiten:

  • MCP-Hosts: Desktop-KI-Anwendungen wie Claude oder ChatGPT, IDEs wie cursorAI oder VSCode oder andere KI-Tools, die Zugriff auf externe Daten und Funktionen benötigen
  • MCP-Kunden: Protokoll-Handler, die in Hosts eingebettet sind und eine eins-zu-eins-Verbindung mit MCP-Servern aufrechterhalten
  • MC Servers: Leichte Programme, die spezifische Funktionalitäten über das standardisierte Protokoll freilegen
  • Datenquellen: Ihre Dateien, Datenbanken, APIs und Dienste, auf die MC-Server sicher zugreifen können

Also, da wir nun die Komponenten besprochen haben, schauen wir uns an, wie sie in einem typischen Workflow interagieren:

  1. Benutzerinteraktion: Es beginnt damit, dass ein Benutzer eine Frage stellt oder eine Anfrage in einem MC-Host, z. B. Claude Desktop, stellt.
  2. LLM-Analyse: Der LLM analysiert die Anfrage und bestimmt, ob externe Informationen oder Werkzeuge benötigt werden, um eine vollständige Antwort zu geben
  3. Tool Discovery: Der MCP-Client fragt verbundene MCP-Server ab, um herauszufinden, welche Tools verfügbar sind
  4. Werkzeugauswahl: Der LLM entscheidet basierend auf der Anfrage und den verfügbaren Möglichkeiten, welche Werkzeuge verwendet werden sollen
  5. Berechtigungsanfrage: Der Host bittet den Benutzer um Erlaubnis zur Ausführung des ausgewählten Tools, das für Transparenz und Sicherheit entscheidend ist.
  6. Tool-Ausführung: Nach Genehmigung sendet der MCP-Client die Anfrage an den entsprechenden MCP-Server, der die Operation mit seinem spezialisierten Zugriff auf Datenquellen ausführt
  7. Ergebnisverarbeitung: Der Server gibt die Ergebnisse an den Client zurück, der sie für das LLM formatiert.
  8. Antwortgenerierung: Der LLM integriert externe Informationen in eine umfassende Antwort
  9. Benutzerpräsentation: Schließlich wird die Antwort dem Endbenutzer angezeigt

Was diese Architektur so leistungsstark macht, ist, dass jeder MC-Server sich auf ein spezifisches Gebiet spezialisiert, aber ein standardisiertes Kommunikationsprotokoll verwendet. Anstatt also Integrationen für jede Plattform neu aufzubauen, können sich Entwickler nur darauf konzentrieren, Werkzeuge einmal für ihr gesamtes KI-Ökosystem zu entwickeln.

Wie man deinen ersten MCPE-Server erstellt

Jetzt schauen wir uns an, wie man mit dem MCP SDK in wenigen Zeilen Code einen einfachen MCP-Server implementieren kann.

In diesem einfachen Beispiel möchten wir die Fähigkeit von Claude Desktop erweitern, Fragen wie "Was sind einige Cafés in der Nähe des Central Parks?" von Google Maps beantworten zu können. Sie können dies leicht erweitern, um Bewertungen oder Bewertungen zu erhalten. Aber jetzt konzentrieren wir uns auf das MCP-Tool find_nearby_places, mit dem Claude diese Informationen direkt von Google Maps abrufen und die Ergebnisse auf eine konversationsfähige Weise präsentieren kann.

Wie Sie sehen können, ist der Code wirklich einfach. 1) Er wandelt die Abfrage in eine Google Maps API-Suche um und 2) gibt die Top-Ergebnisse in einem strukturierten Format zurück. So werden Informationen zur weiteren Entscheidungsfindung an das LLM zurückgegeben.

Jetzt müssen wir Claude Desktop über dieses Tool informieren, also registrieren wir es in seiner Konfigurationsdatei wie folgt.

  • macOS: ~/Library/Application Support/Claude/claude_desktop_config.json
  • Windows: %APPDATA%\Claude\claude_desktop_config.json

Und voila, du bist fertig. Jetzt hast du gerade Claude erweitert, um Echtzeit-Standorte von Google Maps zu finden.

Haftungsausschluss:

  1. Dieser Artikel wurde aus [ wieder abgedrucktXWeiterleiten des Originaltitels 'AI's USB-C-Standard: Verständnis von MCP'. Alle Urheberrechte gehören dem Originalautor [.@Drmelseidy]. Wenn Einwände gegen diesen Nachdruck bestehen, wenden Sie sich bitte an den Gate LearnTeam, und sie werden es umgehend bearbeiten.

  2. Haftungsausschluss: Die Ansichten und Meinungen, die in diesem Artikel zum Ausdruck gebracht werden, sind ausschließlich die des Autors und stellen keine Anlageberatung dar.

  3. Übersetzungen des Artikels in andere Sprachen werden vom Gate Learn-Team durchgeführt. Sofern nicht anders angegeben, ist das Kopieren, Verteilen oder Plagiieren der übersetzten Artikel untersagt.

Haftungsausschluss
* Die Informationen sind nicht als Finanzberatung gedacht und stellen auch keine Empfehlung irgendeiner Art dar, die von Gate angeboten oder unterstützt wird.
* Dieser Artikel darf ohne Bezugnahme auf Gate nicht reproduziert, übertragen oder kopiert werden. Zuwiderhandlung ist eine Verletzung des Urheberrechtsgesetzes und kann gerichtlich verfolgt werden.

Teilen

Crypto Calendar
Tokens Unlock
Wormhole will unlock 1,280,000,000 W tokens on April 3rd, constituting approximately 28.39% of the currently circulating supply.
W
-7.32%
2026-04-02
Tokens Unlock
Pyth Network will unlock 2,130,000,000 PYTH tokens on May 19th, constituting approximately 36.96% of the currently circulating supply.
PYTH
2.25%
2026-05-18
Tokens Unlock
Pump.fun will unlock 82,500,000,000 PUMP tokens on July 12th, constituting approximately 23.31% of the currently circulating supply.
PUMP
-3.37%
2026-07-11
Tokens Unlock
Succinct will unlock 208,330,000 PROVE tokens on August 5th, constituting approximately 104.17% of the currently circulating supply.
PROVE
2026-08-04
sign up guide logosign up guide logo
sign up guide content imgsign up guide content img
Sign Up

Verwandte Artikel

Was sind Krypto-Narrative? Top-Narrative für 2025 (AKTUALISIERT)
Einsteiger

Was sind Krypto-Narrative? Top-Narrative für 2025 (AKTUALISIERT)

Memecoins, flüssige Restaking-Token, flüssige Staking-Derivate, Blockchain-Modularität, Layer 1s, Layer 2s (Optimistic Rollups und Zero Knowledge Rollups), BRC-20, DePIN, Telegram-Krypto-Trading-Bots, Vorhersagemärkte und RWAs sind einige Erzählungen, die man 2024 im Auge behalten sollte.
2024-11-26 01:41:44
Was ist Fartcoin? Alles, was Sie über FARTCOIN wissen müssen
Fortgeschrittene

Was ist Fartcoin? Alles, was Sie über FARTCOIN wissen müssen

Fartcoin (FARTCOIN) zählt zu den führenden, KI-basierten Meme Coins im Solana-Ökosystem.
2024-12-27 08:15:51
Top 10 KI-Meme-Münzen-Übersicht
Fortgeschrittene

Top 10 KI-Meme-Münzen-Übersicht

AI Meme ist ein aufstrebendes Feld, das KI, Blockchain-Technologie und Memekultur kombiniert, getrieben von Markinteresse an kreativen Tokens und von Gemeinschaftstrends. In Zukunft könnte sich der KI-Meme-Sektor mit der Einführung neuer Technologien und Konzepte weiterentwickeln. Trotz der aktuellen aktiven Marktleistung könnten die Top 10 Projekte aufgrund von Verschiebungen in der Gemeinschaftsstimmung signifikant schwanken oder sogar ersetzt werden.
2024-11-29 07:04:45
KI-Agenten in DeFi: Neudefinition von Krypto, wie wir es kennen
Fortgeschrittene

KI-Agenten in DeFi: Neudefinition von Krypto, wie wir es kennen

Dieser Artikel konzentriert sich darauf, wie KI DeFi im Handel, in der Governance, Sicherheit und Personalisierung transformiert. Die Integration von KI in DeFi hat das Potenzial, ein inklusiveres, widerstandsfähigeres und zukunftsorientiertes Finanzsystem zu schaffen und grundlegend neu zu definieren, wie wir mit wirtschaftlichen Systemen interagieren.
2024-11-28 03:20:41
Vana: Ein KI-Projekt, unterstützt von den drei großen VC-Giganten
Fortgeschrittene

Vana: Ein KI-Projekt, unterstützt von den drei großen VC-Giganten

Vana ist ein Web3-Startup, das sich auf den Aufbau eines benutzereigenen Datenpool-Netzwerks konzentriert und das Problem unzureichender Trainingsdaten für KI-Modelle durch Blockchain-Technologie angeht. Es bietet Internetnutzern auch die Möglichkeit, ein Einkommen zu erzielen. Kürzlich kündigte Vana den Abschluss einer strategischen Finanzierungsrunde in Höhe von 5 Mio. $ unter der Leitung von Coinbase Ventures an, wodurch sich die Gesamtfinanzierung auf 25 Mio. $ erhöht. Vana plant, ein DAO-Netzwerk aufzubauen, das es den Mitgliedern ermöglicht, Datensätze beizusteuern und an KI-Forscher zu verkaufen, um die Entwicklung eines dezentralen KI-Ökosystems voranzutreiben.
2024-09-25 10:20:40
Was ist Tars AI? Erforschung der Zukunft der KI und der Integration von Web3
Erweitert

Was ist Tars AI? Erforschung der Zukunft der KI und der Integration von Web3

Erfahren Sie, wie Tars AI die Kluft zwischen KI und Web3 überbrückt und skalierbare Lösungen sowie innovative Tools für dezentrale Anwendungen bietet. Erfahren Sie mehr über seine wichtigsten Funktionen, Vorteile und Funktionsweise.
2024-09-22 13:16:18