Oppdag kraften til OpenAIs API og alle mulighetene den gir.

ChatGPTs generative kraft har skapt vanvidd i teknologiverdenen siden den ble lansert. For å dele AIs intuisjon, ga OpenAI ut ChatGPT- og Whisper-API-ene 1. mars 2023, for utviklere å utforske og konsumere i appen.

OpenAIs APIer har mange verdifulle endepunkter som gjør AI-integrasjon enkel. La oss utforske kraften til OpenAI APIer for å se hvordan de kan være til nytte for deg.

Hva kan OpenAI API gjøre?

De OpenAI API pakker i en haug med verktøy for programmerere. Hvis du har tenkt å levere AI i appen daglig, vil OpenAI gjøre livet ditt enklere med følgende evner.

Chat

Sluttpunktet for fullføring av OpenAI API-chat hjelper sluttbrukeren til å spinne opp en naturlig, menneskevennlig interaktiv økt med en virtuell assistent som bruker GPT-3.5-turbomodellen.

Bak scenen bruker API-kallet en meldingsserie med roller og innhold. På brukersiden er innhold et sett med instruksjoner for den virtuelle assistenten, som engasjerer brukeren, mens for modellen er innhold dens respons.

instagram viewer

Topprollen er systemet, der du definerer den generelle funksjonen til den virtuelle assistenten. For eksempel, når programmereren forteller systemet noe sånt som "du er en nyttig virtuell assistent", forventer du at den svarer på ulike spørsmål innenfor læringskapasiteten.

Etter å ha fortalt den at den er "en nyttig virtuell assistent", her er hvordan en av kommandolinjechattene våre gikk med GPT-3.5-turbomodellen:

Du kan til og med forbedre modellens ytelse ved å oppgi parametere som temperatur, tilstedeværelse-straff, frekvens-straff og mer. Hvis du noen gang har brukt ChatGPT, vet du allerede hvordan OpenAIs chatfullføringsmodell fungerer.

Tekstfullføring

Tekstfullførings-APIet gir funksjonalitet for samtale, tekstinnsetting og tekstfullføring basert på avanserte GPT-3.5-modeller.

Mestermodellen i endepunktet for tekstfullføring er text-davinci-003, som er betydelig mer intuitiv enn GPT-3-modeller for naturlig språk. Endepunktet godtar en brukerforespørsel, slik at modellen kan svare naturlig og fullstendig enkle til komplekse setninger ved hjelp av menneskevennlig tekst.

Selv om endepunktet for tekstfullføring ikke er så intuitivt som chat-endepunktet, blir det bedre – ettersom du øker teksttokenene som leveres til text-davinci-003-modellen.

For eksempel fikk vi noen halvferdige fullføringer da vi plasserte modellen på en max_tokens på syv:

Å øke max_tokens til 70 genererte imidlertid mer sammenhengende tanker:

Tale-til-tekst

Du kan transkribere og oversette lydtale ved å bruke OpenAI-transkripsjons- og oversettelsesendepunktene. Tale-til-tekst-endepunktene er basert på Whisper v2-large-modellen, utviklet gjennom storstilt svak tilsyn.

Imidlertid sier OpenAI at det ikke er noen forskjell mellom Whisper-modellen og den i åpen kildekode. Så det gir uendelige muligheter for å integrere en flerspråklig transkriberende og oversetter AI i appen din i stor skala.

Bruken av endepunkt er enkel. Alt du trenger å gjøre er å forsyne modellen med en lydfil og ringe til openai. Audio.translate eller openai. Audio.transcribe endepunkt for å oversette eller transkribere det. Disse endepunktene godtar en maksimal filstørrelse på 25 MB og støtter de fleste lydfiltyper, inkludert mp3, mp4, MPEG, MPGA, m4a, wav og webm.

Tekstsammenligning

OpenAI API-tekstsammenligningsendepunkt måler forholdet mellom tekster ved å bruke text-embedding-ada-002-modellen, en andregenerasjons innebyggingsmodell. Embedding API bruker denne modellen til å evaluere forholdet mellom tekster basert på avstanden mellom to vektorpunkter. Jo større forskjellen er, desto mindre relaterte er tekstene som sammenlignes.

Det innebygde endepunktet har tekstgruppering, forskjeller, relevans, anbefalinger, følelser og klassifisering. I tillegg lader den per tokenvolum.

Selv om OpenAI-dokumentasjonen sier at du kan bruke de andre førstegenerasjons innbyggingsmodellene, er førstnevnte bedre med en billigere pris. Imidlertid advarer OpenAI om at innbyggingsmodellen kan vise sosial skjevhet mot visse personer, noe som er bevist i tester.

Kodefullføring

Kodefullføringsendepunktet er bygget på OpenAI Codex, et sett med modeller trent ved bruk av naturlig språk og milliarder av kodelinjer fra offentlige depoter.

Endepunktet er i begrenset beta og gratis når det skrives, og tilbyr støtte for mange moderne programmeringsspråk, inkludert JavaScript, Python, Go, PHP, Ruby, Shell, TypeScript, Swift, Perl og SQL.

Med code-davinci-002- eller code-cushman-001-modellen kan kodefullføringsendepunktet automatisk sette inn kodelinjer eller spinne opp kodeblokker fra en brukers forespørsel. Mens sistnevnte modell er raskere, er førstnevnte kraftsenteret til endepunktet, siden den har kodeinnsettinger for autofullføring av kode.

Du kan for eksempel generere en kodeblokk ved å sende en melding til endepunktet i målspråkkommentaren.

Her er noen svar vi fikk da vi prøvde å generere noen kodeblokker i Python og JavaScript via terminalen:

Bildegenerering

Dette er en av de mest intuitive funksjonene til OpenAI API. Basert på DALL.E-bildemodellen, har OpenAI APIs bildefunksjonalitet endepunkter for generering, redigering og opprettelse av bildevariasjoner fra spørsmål fra naturlig språk.

Selv om den ennå ikke har avanserte funksjoner som oppskalering siden den fortsatt er i beta, er dens uskalerte utganger mer imponerende enn generative kunstmodeller som Midjourney og stabil diffusjon.

Mens du treffer bildegenereringsendepunktet, trenger du bare å oppgi en melding, bildestørrelse og bildeantall. Men sluttpunktet for bilderedigering krever at du inkluderer bildet du ønsker å redigere og en RGBA-maske som markerer redigeringspunktet i tillegg til de andre parameterne.

Variasjonsendepunktet, derimot, krever bare målbildet, variasjonstellingen og utdatastørrelsen. I skrivende stund kan OpenAIs betabildeendepunkter bare akseptere kvadratiske rammer i området 256x256, 512x512 og 1024x1024 piksler.

Vi laget en enkel bildegenereringsapplikasjon ved å bruke dette endepunktet, og selv om det gikk glipp av noen detaljer, ga det et utrolig resultat:

Slik bruker du OpenAI API

OpenAI API-bruken er enkel og følger det konvensjonelle API-forbruksmønsteret.

  1. Installer openai pakke med pip: pip installer openai.Hvis du bruker Node i stedet, kan du gjøre det ved å bruke npm: npm installer openai.
  2. Ta tak i API-nøklene: Logg inn på OpenAI-dashbordet og klikk på profilikonet ditt øverst til høyre. Gå til Se API-nøkler og klikk Opprett ny hemmelig nøkkel for å generere din hemmelige API-nøkkel.
  3. Foreta API-kall til dine valgte modellendepunkter via et serversidespråk som Python eller JavaScript (Node). Mat disse til dine egendefinerte APIer og test endepunktene dine.
  4. Deretter hente tilpassede APIer via JavaScript rammeverk som React, Vue eller Angular.
  5. Presenter data (brukerforespørsler og modellsvar) i et visuelt tiltalende brukergrensesnitt, og appen din er klar for bruk i den virkelige verden.

Hva kan du lage med OpenAI API?

OpenAI API-ene skaper inngangspunkter for virkelig bruk av maskinlæring og forsterkende læring. Mens muligheter for kreativitet florerer, er her noen av hva du kan bygge med OpenAI APIer:

  1. Integrer en intuitiv virtuell assistent-chatbot i nettstedet eller applikasjonen din ved å bruke endepunktet for fullføring av chat.
  2. Lag en bilderedigerings- og manipuleringsapp som naturlig kan sette inn et objekt i et bilde på et hvilket som helst spesifisert punkt ved å bruke bildegenereringsendepunktene.
  3. Bygg en tilpasset maskinlæringsmodell fra bunnen av ved å bruke OpenAIs modellfinjusteringsendepunkt.
  4. Fiks undertekster og oversettelser for videoer, lyd og direktesamtaler ved hjelp av tale-til-tekst-modellens endepunkt.
  5. Identifiser negative følelser i appen din ved å bruke endepunktet for OpenAI-innbyggingsmodellen.
  6. Lag programmeringsspråkspesifikke plugins for kodefullføring for koderedigerere og integrerte utviklingsmiljøer (IDE).

Bygg uendelig med OpenAI API-ene

Vår daglige kommunikasjon innebærer ofte utveksling av skriftlig innhold. OpenAI API utvider bare sine kreative tendenser og potensiale, med tilsynelatende ubegrensede naturlige språkbruk.

Det er fortsatt tidlig for OpenAI API. Men forvent at den vil utvikle seg med flere funksjoner etter hvert som tiden går.