亚汇网5月20日消息,在WindowsAIFoundry的推出标志着微软在本地AI开发领域迈出了重要一步。该平台通过整合WindowsCopilotRuntime以及新增功能,为开发者提供了一系列强大的工具和资源。WindowsCopilotRuntime已经在Windows平台上为本地AI应用提供了支持,通过WindowsAIAPI和Windows机器学习(ML)功能,让AI模型能够在本地持续运行。而WindowsAIFoundry在此基础上进一步拓展,提供了即用型AIAPI,这些API由内置的AI模型驱动,能够满足开发者在本地开发AI应用时的多样化需求。此外,WindowsAIFoundry还提供了定制Windows内置模型的工具,开发者可以根据自身应用的特定需求对模型进行优化和调整。该平台还支持从AzureAIFoundry引入开源模型,进一步丰富了开发者可使用的模型资源。同时,它还提供了一个推理运行时,使得开发者能够将自己开发的模型轻松集成到应用中。在AI模型的集成方面,WindowsAIFoundry展现了强大的兼容性。它不仅整合了来自AzureFoundryLocal的AI模型,还支持其他模型目录,例如Ollama和NVIDIANIMs。微软自身的FoundryLocal模型目录将提供经过优化的AI模型,这些模型能够在CPU、GPU和NPU等多种硬件平台上高效运行。开发者可以通过简单的“wingetinstallMicrosoft.FoundryLocal”命令来浏览、下载和测试与设备兼容的模型。一旦选定模型,开发者可以利用FoundryLocalSDK轻松将FoundryLocal集成到自己的应用中,大大降低了开发难度和时间成本。据亚汇网了解,WindowsML作为Windows内置的AI推理运行时,是WindowsAIFoundry的重要组成部分。其基于DirectML开发,能够在包括AMD、Intel、NVIDIA和Qualcomm在内的多种芯片平台上高效运行。WindowsML的出现极大地简化了模型部署的流程,使得开发者无需担心未来硬件更新带来的兼容性问题。该运行时能够自动更新所有必要的依赖项,并在后台自动适配新的芯片架构,确保应用的稳定性和性能。微软还宣布了对LoRA(Low-RankAdaptation)技术的支持,这一技术能够在PhiSilica模型上实现对模型参数的小部分微调。通过使用自定义数据进行微调,LoRA能够显著提升模型在特定任务上的性能表现。目前,LoRA已经作为WindowsAppSDK1.8Experimental2的一部分进入公开预览阶段,并且已经在SnapdragonX系列NPU上实现支持。未来几个月内,LoRA还将扩展到Intel和AMD的Copilot+PC上,为更多开发者提供这一高效微调工具。除了上述功能外,微软还推出了新的语义搜索API,帮助开发者在其应用中创建AI驱动的搜索体验。这些API支持本地运行,并且集成了RAG(Retrieval-AugmentedGeneration)技术,能够提供更加智能和高效的搜索结果。目前,语义搜索API已经在所有Copilot+PC上进入私有预览阶段,开发者可以利用这些API将AI驱动的搜索功能集成到自己的应用中,为用户提供更加个性化的搜索体验。广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,亚汇网所有文章均包含本声明。
免责声明:本文章仅代表作者个人观点,不代表亚汇网立场,亚汇网仅提供信息展示平台。
更多行情分析及广告投放合作加微信: hollowandy