News-Bote
Ich bring die Post
Windows ML: Microsoft vereinfacht Entwicklung von Apps mit lokalen KI-Funktionen
Entwickler, die KI-Funktionen in ihre Apps integrieren möchten, haben es unter Windows in Zukunft leichter. Microsoft hat „Windows ML“ fertiggestellt und in die aktuelle Version des Windows App SDK integriert.
Windows ML wurde auf der Build 2025 erstmals öffentlich angekündigt. Anders als die „Copilot Runtime„, die Microsoft auf der Build 2024 angekündigt, aber nie fertiggestellt hat, steht Entwicklern damit jetzt eine Schnittstelle zur Verfügung, die ihnen die Arbeit erleichtert.
Die Hardware, auf der Windows läuft, ist bekanntermaßen extrem vielfältig. Windows ML fungiert hier als Abstraktionsschicht und soll den Aufwand für die Anpassung an unterschiedliche Hardware erheblich reduzieren. AMD, Intel, Nvidia und Qualcomm haben die Entwicklung von Windows ML aktiv unterstützt. Zudem ist Windows ML mit der ebenfalls unter Federführung von Microsoft entwickelten ONNX Runtime kompatibel.
Windows ML soll automatisch erkennen können, ob für eine Aufgabe die CPU, GPU oder NPU am besten geeignet ist. Dies wird durch sogenannte „Execution Provider“ sichergestellt, die entweder auf dem System bereits vorhanden sind oder bei Bedarf dynamisch nachgeladen werden. Microsoft schreibt in der Ankündigung, dass hierdurch die Größe von App-Paketen erheblich reduziert wird.
Gleichzeitig haben Entwickler allerdings die Möglichkeit, ihren Apps und deren Funktionen Richtlinien mitzugeben. So kann für geringen Energiebedarf die NPU oder für maximale Leistung die GPU angesprochen werden.
Weitere Informationen zu Windows ML sind hier zu finden: What is Windows ML | Microsoft Learn
Der Beitrag Windows ML: Microsoft vereinfacht Entwicklung von Apps mit lokalen KI-Funktionen erschien zuerst auf Dr. Windows.
zum Artikel...
Entwickler, die KI-Funktionen in ihre Apps integrieren möchten, haben es unter Windows in Zukunft leichter. Microsoft hat „Windows ML“ fertiggestellt und in die aktuelle Version des Windows App SDK integriert.
Windows ML wurde auf der Build 2025 erstmals öffentlich angekündigt. Anders als die „Copilot Runtime„, die Microsoft auf der Build 2024 angekündigt, aber nie fertiggestellt hat, steht Entwicklern damit jetzt eine Schnittstelle zur Verfügung, die ihnen die Arbeit erleichtert.
Die Hardware, auf der Windows läuft, ist bekanntermaßen extrem vielfältig. Windows ML fungiert hier als Abstraktionsschicht und soll den Aufwand für die Anpassung an unterschiedliche Hardware erheblich reduzieren. AMD, Intel, Nvidia und Qualcomm haben die Entwicklung von Windows ML aktiv unterstützt. Zudem ist Windows ML mit der ebenfalls unter Federführung von Microsoft entwickelten ONNX Runtime kompatibel.
Windows ML soll automatisch erkennen können, ob für eine Aufgabe die CPU, GPU oder NPU am besten geeignet ist. Dies wird durch sogenannte „Execution Provider“ sichergestellt, die entweder auf dem System bereits vorhanden sind oder bei Bedarf dynamisch nachgeladen werden. Microsoft schreibt in der Ankündigung, dass hierdurch die Größe von App-Paketen erheblich reduziert wird.
Gleichzeitig haben Entwickler allerdings die Möglichkeit, ihren Apps und deren Funktionen Richtlinien mitzugeben. So kann für geringen Energiebedarf die NPU oder für maximale Leistung die GPU angesprochen werden.
Weitere Informationen zu Windows ML sind hier zu finden: What is Windows ML | Microsoft Learn
Der Beitrag Windows ML: Microsoft vereinfacht Entwicklung von Apps mit lokalen KI-Funktionen erschien zuerst auf Dr. Windows.
zum Artikel...