Skip to content

Latest commit

 

History

History
219 lines (176 loc) · 20.5 KB

README.md

File metadata and controls

219 lines (176 loc) · 20.5 KB

Phi Kookboek: Praktische Voorbeelden met Microsofts Phi Modellen

Open en gebruik de voorbeelden in GitHub Codespaces Open in Dev Containers

GitHub contributors GitHub issues GitHub pull-requests PRs Welcome

GitHub watchers GitHub forks GitHub stars

Azure AI Community Discord

Phi is een reeks open source AI-modellen ontwikkeld door Microsoft.

Phi is momenteel het meest krachtige en kosteneffectieve kleine taalmodel (SLM), met uitstekende benchmarks op het gebied van meertaligheid, redeneren, tekst-/chatgeneratie, coderen, afbeeldingen, audio en andere scenario's.

Je kunt Phi inzetten in de cloud of op edge-apparaten, en je kunt eenvoudig generatieve AI-toepassingen bouwen met beperkte rekenkracht.

Volg deze stappen om aan de slag te gaan met deze bronnen:

  1. Fork de repository: Klik GitHub forks
  2. Clone de repository: git clone https://github.com/microsoft/PhiCookBook.git
  3. Word lid van de Microsoft AI Discord Community en ontmoet experts en andere ontwikkelaars

cover

Inhoudsopgave

Gebruik van Phi Modellen

Phi op Azure AI Foundry

Je kunt leren hoe je Microsoft Phi gebruikt en hoe je end-to-end-oplossingen bouwt op verschillende hardwareapparaten. Om zelf ervaring op te doen met Phi, begin met het uitproberen van de modellen en het aanpassen van Phi aan jouw scenario's via de Azure AI Foundry Azure AI Model Catalog. Meer informatie vind je in de handleiding Azure AI Foundry.

Playground
Elk model heeft een speciale playground om het model te testen: Azure AI Playground.

Phi op GitHub Modellen

Je kunt leren hoe je Microsoft Phi gebruikt en hoe je end-to-end-oplossingen bouwt op verschillende hardwareapparaten. Om zelf ervaring op te doen met Phi, begin met het uitproberen van het model en het aanpassen van Phi aan jouw scenario's via de GitHub Model Catalog. Meer informatie vind je in de handleiding GitHub Model Catalog.

Playground Elke model heeft een speciale playground om het model te testen.

Phi op Hugging Face

Je kunt het model ook vinden op Hugging Face

Playground
Hugging Chat playground

Verantwoordelijke AI

Microsoft zet zich in om klanten te helpen onze AI-producten op een verantwoorde manier te gebruiken, onze kennis te delen en vertrouwensrelaties op te bouwen via tools zoals Transparantienotities en Effectbeoordelingen. Veel van deze middelen zijn te vinden op https://aka.ms/RAI.
De aanpak van Microsoft voor verantwoorde AI is gebaseerd op onze AI-principes: eerlijkheid, betrouwbaarheid en veiligheid, privacy en beveiliging, inclusiviteit, transparantie en verantwoordelijkheid.

Grootschalige modellen voor natuurlijke taal, beeld en spraak - zoals de modellen die in dit voorbeeld worden gebruikt - kunnen mogelijk gedrag vertonen dat oneerlijk, onbetrouwbaar of aanstootgevend is, wat schade kan veroorzaken. Raadpleeg de Azure OpenAI service Transparantienotitie om op de hoogte te blijven van risico's en beperkingen.

De aanbevolen aanpak om deze risico's te beperken is om een veiligheidssysteem in je architectuur op te nemen dat schadelijk gedrag kan detecteren en voorkomen. Azure AI Content Safety biedt een onafhankelijke beschermingslaag die schadelijke door gebruikers gegenereerde en door AI gegenereerde inhoud in applicaties en diensten kan detecteren. Azure AI Content Safety omvat tekst- en beeld-API's waarmee je schadelijk materiaal kunt detecteren. Binnen Azure AI Foundry kun je met de Content Safety-service voorbeeldcode bekijken, verkennen en uitproberen om schadelijke inhoud in verschillende modaliteiten te detecteren. De volgende quickstart documentatie begeleidt je bij het indienen van verzoeken aan de service.

Een ander aspect om rekening mee te houden is de algehele prestatie van de applicatie. Bij multimodale en multi-modeltoepassingen betekent prestatie dat het systeem functioneert zoals jij en je gebruikers verwachten, inclusief het niet genereren van schadelijke uitkomsten. Het is belangrijk om de prestaties van je gehele applicatie te beoordelen met behulp van Performance and Quality en Risk and Safety evaluators. Je hebt ook de mogelijkheid om aangepaste evaluators te maken en te evalueren.

Je kunt je AI-applicatie evalueren in je ontwikkelomgeving met de Azure AI Evaluation SDK. Met een testdataset of een doel worden de generaties van je generatieve AI-applicatie kwantitatief gemeten met ingebouwde evaluators of aangepaste evaluators van jouw keuze. Om te beginnen met de Azure AI Evaluation SDK om je systeem te evalueren, kun je de quickstart gids volgen. Zodra je een evaluatierun hebt uitgevoerd, kun je de resultaten visualiseren in Azure AI Foundry.

Handelsmerken

Dit project kan handelsmerken of logo's bevatten van projecten, producten of diensten. Toegestaan gebruik van Microsoft-handelsmerken of logo's is onderhevig aan en moet voldoen aan Microsoft's Trademark & Brand Guidelines.
Gebruik van Microsoft-handelsmerken of logo's in aangepaste versies van dit project mag geen verwarring veroorzaken of impliceren dat Microsoft sponsoring biedt. Elk gebruik van handelsmerken of logo's van derden is onderhevig aan het beleid van die derden.

Disclaimer (Vrijwaring):
Dit document is vertaald met behulp van machinegebaseerde AI-vertalingsdiensten. Hoewel we streven naar nauwkeurigheid, dient u zich ervan bewust te zijn dat geautomatiseerde vertalingen fouten of onnauwkeurigheden kunnen bevatten. Het originele document in zijn oorspronkelijke taal moet worden beschouwd als de gezaghebbende bron. Voor kritieke informatie wordt professionele menselijke vertaling aanbevolen. Wij zijn niet aansprakelijk voor misverstanden of verkeerde interpretaties die voortvloeien uit het gebruik van deze vertaling.