Der findes ikke én bestemt og klar definition på AI men grundlæggende kan man sige, at det drejer sig computerstyret databehandling ved hjælp af algoritmer. Mere data i systemet giver mere materiale som algoritmerne kan arbejde med, og en større database giver et bedre resultatet. Principielt kræves der masser af data for et godt resultat. For f.eks. at kunne konkludere, at en schäferhund ikke er en ulv kræves en database med mange tusinde billeder af schäferhunde, ulve, ræve og andre hunderaser i mange forskellige miljøer.
OpenAI fra Californien arbejder på at udvikle avancerede AI modeller, og i midten af 2020 introducerede de GPT-3 med den målsætning at gøre den kommercielt tilgængelig fra 2021. GPT betyder “General Pre-trained Transformer” og 3 betyder, at vi er kommet til version 3.
GPT-3 er blevet så omtalt og rost, fordi den simpelthen er suverænt bedre til at håndtere alle mulige spørgsmål end nogen anden AI model. Den er baseret på 175 milliarder af parametre og en database på mere end 45 terabytes. Altså, den er voldsomt stor.
GPT-3 kan skabe alt, som er baseret på en sprog-struktur, dvs. at den kan svare (fornuftigt) på spørgsmål, skrive rapporter, skrive koncentrater af sådanne rapporter og forklare indviklede problematikker på en let måde. Den kan også skrive poesi og digte, og den kan oversætte mellem forskellige sprog. Hvis man spørger på den rigtige måde kan den også skabe en app – f.eks. en app, som ligner Instagram til forveksling. Folk, som har testet GPT-3, påstår, at den får Alexa, Siri og Google Assistant til at ligne noget, som kommer fra småbørns-afdelingen i en legetøjsforretning.
Noget andet er så, at sådanne AI modeller er ekstremt dyre at udvikle, og energiforbruget til regnearbejdet er eksorbitant og den dertil hørende køling af computerne ikke er specielt miljøvenlig. Det bliver så det næste, der skal forskes i.
Mere om OpenAI’s kunstige intelligens finder du her: