Shaip er nå en del av Ubiquity-økosystemet: Samme team – nå støttet av utvidede ressurser for å støtte kunder i stor skala. |

Førtrening

Førtrening

Definisjon

Forhåndstrening er den første treningen av en maskinlæringsmodell på store datasett for generell bruk før finjustering av spesifikke oppgaver.

Formål

Hensikten er å tilby modeller med brede representasjoner som kan overføres til flere oppgaver, noe som reduserer data- og beregningskrav for nedstrøms tilpasning.

Viktigheten

  • Grunnlag for moderne LLM-er og visjonsmodeller.
  • Forbedrer ytelsen på tvers av ulike oppgaver.
  • Kostbart når det gjelder data og beregninger.
  • Krever nøye kuratering av datasett for å unngå skjevhet.

Slik fungerer det

  1. Samle massive generelle datasett (tekst, bilder).
  2. Definer uveiledede eller selvveiledede læringsoppgaver.
  3. Tren modeller til å lære generelle funksjoner.
  4. Ta vare på ferdigtrente vekter for gjenbruk.
  5. Finjuster mindre oppgavespesifikke datasett.

Eksempler (den virkelige verden)

  • BERT har forhåndstrint Wikipedia og BooksCorpus.
  • CLIP trent på bilde-tekst-par.
  • GPT-modeller er forhåndstrent på storskala internetttekst.

Referanser / Videre lesning

  • Devlin et al. «BERT: Forhåndstrening av dype toveistransformatorer.» NAACL 2019.
  • Radford et al. «Språkmodeller er få-skutt-lærere.» NeurIPS 2020.
  • OpenAI GPT-4 teknisk rapport.

Fortell oss hvordan vi kan hjelpe med ditt neste AI -initiativ.