Hinweis
GitHub Spark befindet sich in der öffentlichen Vorschau und Änderungen sind vorbehalten.
Informationen zu GitHub Spark
Spark ist eine von Copilot unterstützte Plattform zum Erstellen und Teilen von Anwendungen, die an individuelle Anforderungen angepasst werden können, und auf die desktop- und mobilgeräteübergreifend zugegriffen werden kann - und dies, ohne dass Benutzer auch nur eine einzige Zeile Code schreiben oder bereitstellen müssen.
Spark bietet eine Entwicklungsumgebung basierend auf natürlicher Sprache zur Erstellung von Anwendungen sowie eine vollständig verwaltete Laufzeitumgebung, die entsprechend der Anwendungsanforderungen skaliert werden kann. Mit Spark musst du deine Infrastruktur nicht mehr manuell verwalten oder verschiedene Tools zusammenfügen – du kannst dich ganz auf das Erstellen deiner Anwendung konzentrieren.
Eingabeverarbeitung
Hinweis
Spark nutzt derzeit Claude Sonnet 4. Änderungen dieses Modells sind vorbehalten.
Eingabeprompts in Spark werden von Copilot vorverarbeitet, um Kontextinformationen aus deinen aktuellen Spark-Eingaben ergänzt und an einen Agent innerhalb deiner Entwicklungsumgebung gesendet, der von einem großen Sprachmodell unterstützt wird. Der ergänzte Inhalt umfasst Informationen aus deiner Spark-Anwendung, wie z. B. Code aus deiner aktuellen Anwendung, vorherige Prompts aus der Spark-Oberfläche sowie sämtliche Fehlerprotokolle aus deiner Spark-Entwicklungsumgebung.
Das System wurde so konzipiert, dass es Code basierend auf übermittelten Prompts generiert. Es kann keine Gesprächsinteraktionen ausführen. Die bevorzugte Sprache für übermittelte Prompts ist Englisch.
Sprachmodellanalyse
Der Prompt wird anschließend durch ein großes Sprachmodell geleitet. Dabei handelt es sich um ein neuronales Netz, das mit einer großen Menge an Textdaten trainiert wurde. Das Sprachmodell analysiert den Prompt, um den Agent bei Rückschlüssen für die Aufgabe und der Verwendung der erforderlichen Tools zu unterstützen.
Agentausführung
Der in deiner Entwicklungsumgebung ausgeführte Agent akzeptiert den Prompt und den zusätzlich übermittelten Kontext und entscheidet daraufhin, wie deine Spark-Anwendung aktualisiert werden muss, um deine Anforderung zu erfüllen. Der Agent steuert deine Entwicklungsumgebung durch Schreiben von Code, Ausführen von Befehlen und Lesen von Ausführungsausgaben. Alle vom Agent ausgeführten Aktionen dienen der Bereitstellung von funktionsfähigem, präzisem Code, um deinen Prompt ausführen zu können. Die einzige Ausgabe des Agents besteht aus deinem Anwendungscode.
Spark-Frameworks
Der Spark-Agent ist für die Verwendung von Frameworks und SDKs trainiert, die Spark bereitgestellt werden. Diese gewährleisten modernes Design und sichere Bereitstellungen, die nahtlos in die Komponente für die Spark-Runtime integriert sind. Das Designframework ist flexibel und modular, sodass du das Design ganz einfach nach deinen Wünschen und Anforderungen anpassen kannst. Die Integration der Spark-Runtime, auf die über das SDK zugegriffen werden kann, nutzt bewährte Methoden für Webbereitstellungen, um eine sichere und skalierbare Bereitstellung zu gewährleisten.
Hinzufügen von Rückschlussfunktionen zu deiner Spark-Anwendung
Das SDK für Spark kann nativ mit GitHub Models integriert werden und ermöglicht dir dadurch die Einbindung von Modellinferenz in deine Spark-Anwendung. Erkennt Spark die Notwendigkeit von Rückschlussfunktionen für deine Anwendung, fügt es diese über das Spark SDK hinzu.
Mit Spark erhältst du die Tools, um die Prompts, die mit diesen Rückschlussfunktionen verwendet werden, zu erstellen, zu ändern und zu testen. Spark selbst führt keine Tests für die Prompts aus, die du innerhalb deiner Anwendung erstellst. Du musst daher sicherstellen, dass die eingebundenen Funktionen wie gewünscht funktionieren. Weitere Informationen zur verantwortungsvollen Verwendung von GitHub Models findest du unter Verantwortungsvolle Nutzung von GitHub-Modellen.
Datenverarbeitung
Spark sammelt Daten, um den Dienst auszuführen. Dazu zählen Prompts, Vorschläge und Codeausschnitte, die für die Kontinuität zwischen den Sitzungen erforderlich sind. Zudem sammelt Spark weitere Nutzungsinformationen wie z. B. Nutzungsmuster, übermitteltes Feedback und Leistungstelemetriedaten.
Anwendungsfälle für Spark
Erstellen und Bereitstellen vollständiger Webanwendungen
Mit Spark kannst du vollständige Webanwendungen nur mithilfe von natürlicher Sprache erstellen. Über die integrierte Spark-Laufzeitumgebung kannst du diese Anwendungen im öffentlichen Internet bereitstellen. Basierend auf der Einstellungen zur Sichtbarkeit für GitHub-Konten kannst du Berechtigungen für die bereitgestellten Anwendungen definieren. Du kannst auswählen, ob sie öffentlich sichtbar, nur für bestimmte GitHub-Mitglieder, für Mitglieder deines Teams oder deiner Organisation oder nur für dich sichtbar sein sollen. Spark-Anwendungen können ganz unterschiedlicher Natur sein - von Punktezahl-Trackern für Brettspiele bis hin zu vollständigen Software-as-a-Service-Produkten - alle von dir bereitgestellten Inhalte unterliegen den GitHub-Bedingungen für benutzergenerierte Inhalte.
Verwandeln von Ideen in Prototypen
Mit Spark können Entwickler, Designer, Produktmanager oder andere Ersteller schnell ihre Ideen in Prototypen verwandeln, ohne dass sie eine gänzlich neue Anwendung oder komplexe Modelle erstellen müssen. Diese Prototypen können für eine einfache Freigabe bereitgestellt werden oder unveröffentlicht bleiben, damit Ersteller sofort ein Bild ihrer Idee bekommen.
Verbessern der Leistung für Spark
Mit Spark kannst du eine Vielzahl von Anwendungen erstellen, die im Laufe der Zeit erweitert und an neue Anforderungen angepasst werden. Es gibt verschiedene bewährte Methoden, um die Leistung von Spark zu verbessern und Einschränkungen zu reduzieren. Weitere Informationen zu den Einschränkungen von Spark findest du unter Limitations of Spark.
Halte die Prompts spezifisch und themenbezogen
Spark ist für das Erstellen und Erweitern deiner Spark-Anwendung vorgesehen. Je genauer du das beabsichtigte Verhalten und die gewünschten Interaktionen beschreibst, desto besser wird die Ausgabe von Spark ausfallen. Das Einbeziehen von relevantem Kontext wie bestimmter Szenarios, Modelle oder Spezifikationen erleichtert Spark, deine Absicht zu verstehen, und verbessert die Ausgabe, die du erhältst.
Spark bezieht auch Kontext aus vorherigen Prompts in jede nachfolgende Revision ein, die generiert wird. Das Übermitteln von Prompts, die nicht zum Thema passen, verschlechtern möglicherweise die Leistung nachfolgender Revisionen. Versuche daher, deine Prompts so themenbezogen für deine aktuelle Anwendung wie möglich zu halten.
Verwende zielgerichtete Änderungen
Mit zielgerichteten Änderungen kannst du in Spark Elemente in deiner Anwendung angeben, um Stil, Inhalt oder Verhalten einzelner Elemente deiner Anwendung zu optimieren. Zielgerichtete Änderungen sind eine hervorragende Möglichkeit, Änderungen der Oberfläche einzuschränken und Spark deine Absicht mitzuteilen. Durch die Verwendung von zielgerichteten Änderungen (anstelle von allgemein gehaltenen Prompts) fallen deine Änderungen genauer aus, und es entstehen weniger Nebeneffekte, wenn Spark neue Revisionen generiert.
Überprüfe die Ausgabe von Spark
Obwohl Spark ein äußerst leistungsfähiges Tool ist, können dennoch Fehler entstehen. Bei diesen Fehlern kann es sich um ein Missverständnis deiner Ziele oder um einfachere Syntaxfehler in deiner generierten Spark-Anwendung handeln. Überprüfe daher immer die von Spark bereitgestellte Anwendungsvorschau, um sicherzustellen, dass sich die Spark-Anwendung in verschiedenen Szenarios so verhält, wie du es dir vorstellst. Wenn du mit dem Schreiben von Code vertraut bist, solltest du überprüfen, ob der generierte Code deine Codequalitätsstandards erfüllt.
Einschränkungen von GitHub Spark
Interpretation von der Benutzerabsicht
Spark liegt beim Interpretieren der Absicht von Benutzern nicht immer richtig. Daher solltest du immer die von Spark bereitgestellte Vorschau verwenden, um sicherzustellen, dass sich die Spark-Anwendung korrekt verhält.
Eingeschränkter Gültigkeitsbereich
Spark wird von Copilot unterstützt, was bedeutet, dass es für eine große Menge an Code und relevanten Anwendungen trainiert wurde. Trotzdem kann es möglicherweise zu Schwierigkeiten kommen, wenn es sich um komplexe oder wirklich neuartige Anwendungen handelt. Die beste Leistung liefert Spark bei allgemeinen/persönlichen Anwendungsszenarios (z. B. Produktivitätstools, Lernhilfen, Alltagshilfeprogramme) und wenn die Anweisungen in natürlicher Sprache in Englisch erfolgen.
Sicherheitseinschränkungen
Obwohl die Spark-Runtime die bewährten Methoden für die Anwendungsbereitstellung befolgt, wird Code probabilistisch generiert, was zu Sicherheitsrisiken führen kann. Dies gilt insbesondere dann, wenn diese Sicherheitsrisiken häufig im Trainingssatz für Anwendungen vorkommen. Du solltest vorsichtig sein, wenn du Anwendungen erstellst, die persönliche oder vertrauliche Daten verwalten, und die generierte Anwendung immer gründlich überprüfen und testen.
Rechtliche und regulatorische Überlegungen
Benutzer müssen potenzielle rechtliche und behördliche Verpflichtungen berücksichtigen, wenn du KI-Dienste und -Lösungen verwendest. Diese sind möglicherweise nicht für die Verwendung in jeder Branche oder in jedem Szenario geeignet. Darüber hinaus sind KI-Dienste oder -Lösungen nicht dafür konzipiert, auf eine Weise verwendet zu werden, die gegen die geltenden Nutzungsbedingungen und Verhaltensregeln verstößt, und dürfen nicht solchermaßen eingesetzt werden.
Anstößiger Inhalt
Spark besitzt integrierte Schutzmaßnahmen gegen schädliche, hasserfüllte oder anstößige Inhalte. Melde alle anstößigen Inhalte an copilot-safety@github.com. Gib dabei auch die URL deiner Spark-Anwendung an, damit wir sie identifizieren können.
Du kannst problematische oder illegale Inhalte über die Feedbackfunktion mitteilen oder eine Spark-Anwendung als Missbrauch oder Spam melden. Weitere Informationen findest du unter Missbrauch oder Spam melden und Content Removal Policies von GitHub.