Gå til innhold
< Kurs og arrangementer

Slik bruker du en lokal KI-modell

Bli med på et gratis webinar hvor vi ser på bruk av en lokal KI-modell (LLM).

Registration Details

Log in and you don't have to fill in all your personal information

Log in

Personal information

Loading

Adress not found. Enter the missing information

Is the information correct? If not, update in form

Loading

Employer

Loading

We do not know this employer, please enter the address below

Loading




* required field

For mange ingeniører og teknologer er det ikke aktuelt å jobbe med skybaserte KI-modeller.

Det kan da være flere fordeler ved å kjøre slike KI-tjenester lokalt. F.eks tjenester som krever kort responstid (low-delay). KI-tjenester som er tilgjengelig selv om Globale tjenester har DDoS-angrep eller annet type utfall. Eller data som en ikke ønsker skal forlate rommet de blir produsert i.

Det er også en trend at flere mindre og spesialiserte KI-modeller blir tatt i bruk. Noen kan faktisk kjøres på mobilen, og bl.a. Apple lager løsninger for dette i disse tider.

Lokale LLM-modeller kan her være en god løsning. Med en lokal KI-løsning uten tilgang til internett kan du bl.a. bruke dette i helsesektoren.

Men hvordan kommer man i gang, og hvordan jobber man med LLM-modellen lokalt?

 

Fagnettverk KI arrangerer to webinarer om Lokal KI-modell i september 2024. Del 1 arrangeres 16/9 og handlet om  oppsett av en lokal KI-modell. Dette er Del 2 hvor det vil være fokus på praktisk bruk av en slik modell med konkrete eksempler og scenarier. 

 

Du møter:

Peder Sefland

Peder vil i dette webinaret gå nærmere inn på praktisk bruk av lokale KI-løsninger. Det vil bli mulighet for å stille spørsmål etter presentasjonen.

 

Velkommen!

Fagnettverk KI er åpent for alle NITO-medlemmer. Du kan melde deg inn i fagnettverket her