En ny tidsalder med data betyder, at man omfavner kanten



I forbindelse med Hewlett Packard Enterprise

Kunstig intelligens har et enormt løfte, men for at være effektiv skal den lære af massive datasæt – og jo mere forskelligartet jo bedre. Ved at lære mønstre kan AI-værktøjer afdække indsigt og hjælpe med beslutningstagning ikke kun inden for teknologi, men også medicin, medicin, fremstilling og meget mere. Data kan dog ikke altid deles – uanset om de er personligt identificerbare, indeholder proprietære oplysninger eller at gøre det ville være et sikkerhedsproblem – indtil nu.



Det bliver en ny tidsalder. Siger Dr. Eng Lim Goh, senior vicepræsident og CTO for kunstig intelligens hos Hewlett Packard Enterprise. Verden vil skifte fra en, hvor du har centraliseret data, hvad vi har været vant til i årtier, til en, hvor du skal være fortrolig med, at data er overalt.

Data overalt betyder kanten, hvor hver enhed, server og cloud-instans indsamler enorme mængder data. Et estimat viser, at antallet af tilsluttede enheder på kanten stiger til 50 milliarder i 2022. Gåden: hvordan man holder indsamlede data sikre, men også kan dele erfaringer fra dataene, hvilket igen hjælper med at lære AI at være smartere. Gå ind i sværmlæring.

Sværmlæring , eller sværm-intelligens, er, hvordan sværme af bier eller fugle bevæger sig som reaktion på deres miljø. Når det anvendes på data, forklarer Goh, er der mere peer-to-peer-kommunikation, mere peer-to-peer-samarbejde, mere peer-to-peer-læring. Og Goh fortsætter, det er grunden til, at sværmlæring vil blive mere og mere vigtig, da …efterhånden som tyngdepunktet skifter fra centraliseret til decentraliseret data.



Overvej dette eksempel, siger Goh. Et hospital træner deres maskinlæringsmodeller på røntgenbilleder af thorax og ser mange tilfælde af tuberkulose, men meget få tilfælde af lungekollaps. Så derfor vil denne neurale netværksmodel, når den er trænet, være meget følsom over for det, der detekterer tuberkulose, og mindre følsom over for at detektere lungekollaps. Goh fortsætter, men vi får det modsatte af det på et andet hospital. Så det, du virkelig ønsker, er at få disse to hospitaler til at kombinere deres data, så den resulterende neurale netværksmodel kan forudsige begge situationer bedre. Men da du ikke kan dele disse data, kommer sværmlæring ind for at hjælpe med at reducere den skævhed på begge hospitaler.

Og det betyder, at hvert hospital er i stand til at forudsige resultater, med nøjagtighed og med reduceret bias, som om du har samlet alle patientdata globalt på ét sted og lært af det, siger Goh.

Og det er ikke kun hospitals- og patientdata, der skal opbevares sikkert. Goh understreger, hvad sværmlæring gør, er at forsøge at undgå den deling af data, eller helt forhindre deling af data, til [en model], hvor du kun deler indsigten, du deler læringen. Og derfor er den grundlæggende mere sikker.



Vis noter og links:

Fuld udskrift:

Laurel Ruma: Fra MIT Technology Review hedder jeg Laurel Ruma. Og dette er Business Lab, showet, der hjælper virksomhedsledere med at forstå nye teknologier, der kommer ud af laboratoriet og ind på markedet. Vores emne i dag er decentrale data. Uanset om det er fra enheder, sensorer, biler, kanten, om du vil, så vokser mængden af ​​indsamlede data. Det kan være personligt, og det skal beskyttes. Men er der en måde at dele indsigt og algoritmer sikkert for at hjælpe andre virksomheder og organisationer og endda vaccineforskere?

To ord til dig: sværmlæring.

Min gæst er Dr. Eng Lim Goh, som er senior vicepræsident og CTO for kunstig intelligens hos Hewlett Packard Enterprise. Før denne rolle var han CTO i størstedelen af ​​sine 27 år hos Silicon Graphics, nu en HPE-virksomhed. Dr. Goh blev tildelt NASA's Exceptional Technology Achievement Medal for sit arbejde med kunstig intelligens i den internationale rumstation. Han har også arbejdet på adskillige kunstig intelligens forskningsprojekter fra F1 racing, til poker bots, til hjernesimuleringer. Dr. Goh har en række patenter og havde en publikation på forsiden af ​​Nature. Denne episode af Business Lab er produceret i samarbejde med Hewlett Packard Enterprise. Velkommen Dr. Goh.

Dr. Eng Lim Goh: Tak fordi jeg måtte komme.



Laurel: Så vi har startet et nyt årti med en global pandemi. Det haster med at finde en vaccine har givet mulighed for større informationsdeling mellem forskere, regeringer og virksomheder. For eksempel offentliggjorde Verdenssundhedsorganisationen Pfizer-vaccinens mRNA-sekvens for at hjælpe forskere. Hvordan tænker du på muligheder som denne, der kommer ud af pandemien?

Eng Lim: Inden for videnskab og medicin og andre er deling af resultater en vigtig del af at fremme videnskaben. Så den traditionelle måde er udgivelser. Sagen er, at der i løbet af et år, halvandet år med covid-19 har været en bølge af publikationer relateret til covid-19. Én aggregator havde for eksempel størrelsesordenen 300.000 af sådanne dokumenter relateret til covid-19 derude. Det bliver svært, på grund af mængden af ​​data, at kunne få det, du har brug for.

Så en række virksomheder, organisationer, begyndte at bygge disse naturlige sprogbehandlingsværktøjer, AI-værktøjer, for at give dig mulighed for at stille meget specifikke spørgsmål, ikke bare søge efter nøgleord, men meget specifikke spørgsmål, så du kan få det svar, du har brug for fra dette korpus af dokumenter derude. En videnskabsmand kunne spørge, eller en forsker kunne spørge, hvad er bindingsenergien af ​​SARS-CoV-2-spidsproteinet til vores ACE-2-receptor? Og kan være endnu mere specifik og sige, jeg vil have det i enheder af kcal pr. mol. Og systemet ville gå igennem. NLP-systemet ville gennemgå dette korpus af dokumenter og komme med et svar specifikt til det spørgsmål og endda pege på det område af dokumenterne, hvor svaret kunne være. Så dette er ét område. For at hjælpe med deling kan du bygge AI-værktøjer til at hjælpe med at gennemgå denne enorme mængde data, der er blevet genereret.

Det andet område for deling er deling af data fra et klinisk forsøg, som du har nævnt. Tidligt sidste år, før nogen af ​​de kliniske SARS-CoV-2-vaccineforsøg var startet, fik vi de kliniske undersøgelsesdata for gul febervaccinen. Og endnu mere specifikt, genekspressionsdata fra de frivillige i det kliniske forsøg. Og et af målene er, kan du analysere de titusindvis af disse gener, der udtrykkes af de frivillige og hjælpe med at forudsige, for hver frivillig, om han eller hun ville få bivirkninger af denne vaccine, og om han eller hun vil give god antistofrespons på denne vaccine? Så opbygning af prædiktive værktøjer ved at dele disse kliniske forsøgsdata, omend anonymiserede og på en begrænset måde.

Laurel: Når vi taler om naturlig sprogbehandling, tror jeg, at de to ting, vi har taget fra det meget specifikke eksempel, er, at du kan bygge bedre AI-værktøjer til at hjælpe forskerne. Og så hjælper det også med at opbygge forudsigelige værktøjer og modeller.

Eng Lim: Ja absolut.

Laurel: Så som et specifikt eksempel på, hvad du har arbejdet på det seneste år, udgav Nature Magazine for nylig en artikel om, hvordan en samarbejdstilgang til dataindsigt kan hjælpe disse interessenter, især under en pandemi. Hvad fandt du ud af under arbejdet?

Eng Lim: Ja. Dette er igen relateret til det delingspunkt, du skabte, hvordan man deler læring, så fællesskabet kan komme hurtigere frem. Det Natur publikation, du nævnte, er titlen på den Swarm Learning [til decentraliseret og fortrolig klinisk maskinlæring]. Lad os bruge hospitalseksemplet. Der er dette hospital, og det ser dets patienter, hospitalets patienter, af en vis demografi. Og hvis den ønsker at bygge en maskinlæringsmodel til at forudsige baseret på patientdata, f.eks. en patients CT-scanningsdata, for at forsøge at forudsige visse udfald. Problemet med at lære isoleret som dette er, at du begynder at udvikle modeller gennem denne indlæring af dine patientdata, der er forudindtaget i forhold til den demografi, du ser. Eller på andre måder, forudindtaget i forhold til den type medicinsk udstyr, du har.

Løsningen på dette er at indsamle data fra forskellige hospitaler, måske fra forskellige regioner eller endda forskellige lande. Og så kombinere alle disse hospitalers data og derefter træne maskinlæringsmodellen på de kombinerede data. Problemet med dette er, at privatlivets fred for patientdata forhindrer dig i at dele disse data. Swarm learning kommer ind for at prøve at løse dette på to måder. Én, i stedet for at indsamle data fra disse forskellige hospitaler, tillader vi hvert hospital at træne deres maskinlæringsmodel på deres egne private patientdata. Og så af og til kommer der en blockchain ind. Det er den anden vej. En blockchain kommer ind og samler alle læringerne. understreger jeg. Læringerne og ikke patientdataene. Indsaml kun læringen og kombiner den med læringen fra andre hospitaler i andre regioner og andre lande, gennemsnit dem og send derefter tilbage til alle hospitalerne, den opdaterede globalt kombinerede gennemsnitlige læring.

Og med indlæring mener jeg f.eks. parametrene for det neurale netværks vægte. Parametrene, som er de neurale netværksvægte i maskinlæringsmodellen. Så i dette tilfælde forlader ingen patientdata nogensinde et individuelt hospital. Det, der forlader hospitalet, er kun læringerne, parametrene eller vægten af ​​det neurale netværk. Og så, når du sendte dine lokalt lærte parametre op, og hvad du får tilbage fra blockchain, er de globale gennemsnitlige parametre. Og så opdaterer du din model med det globale gennemsnit, og så fortsætter du med at lære lokalt igen. Efter et par cyklusser med disse deling af erfaringer, har vi testet det, hvert hospital er i stand til at forudsige, med nøjagtighed og med reduceret bias, som om du har samlet alle patientdata globalt på ét sted og lært af det.

Laurel: Og grunden til, at der bruges blockchain er, at det faktisk er en sikker forbindelse mellem forskellige, i dette tilfælde, maskiner, ikke?

Eng Lim: Der er to grunde, ja, hvorfor vi bruger blockchain. Den første grund er sikkerheden ved det. Og nummer to, vi kan holde den information privat, fordi i en privat blockchain er det kun deltagere, hoveddeltagere eller certificerede deltagere, der er tilladt i denne blockchain. Nu, selvom blockchainen er kompromitteret, er det, der kun ses, vægtene eller parametrene for læringerne, ikke de private patientdata, fordi de private patientdata ikke er i blockchainen.

Og den anden grund til at bruge en blockchain, det er i modsætning til at have en central custodian, der foretager indsamlingen af ​​parametrene, af læringerne. For når først du udpeger en depotforvalter, en enhed, der indsamler alle disse læringer, hvis et af hospitalerne bliver denne depot, så har du en situation, hvor den udpegede depotleder har flere oplysninger end resten, eller har mere kapacitet end resten. Ikke så meget mere information, men mere kapacitet end resten. Så for at få en mere retfærdig deling bruger vi en blockchain. Og i blockchain-systemet er det, det gør, at tilfældigt udpeger en af ​​deltagerne som samleren, som lederen, til at indsamle parametrene, tage et gennemsnit af dem og sende det ned igen. Og i næste cyklus bliver der tilfældigt udpeget en anden deltager.

Laurel: Så der er to interessante punkter her. Den ene er, at dette projekt lykkes, fordi du ikke kun bruger dine egne data. Du har lov til at tilmelde dig dette forhold for også at bruge erfaringerne fra andre forskeres data. Så det mindsker bias. Så det er en slags stort problem løst. Men så også dette andet interessante spørgsmål om retfærdighed og hvordan selv algoritmer måske fra tid til anden kan være mindre retfærdige. Men når du har en bevidst tilfældig algoritme i blockchain, der tildeler lederskab til indsamlingen af ​​læring fra hver enhed, hjælper det også med at fjerne enhver form for mulig skævhed, korrekt?

Eng Lim: Ja ja Ja. Strålende opsummering, Laurel. Så der er den første bias, som er, at hvis du lærer isoleret, lærer hospitalet, en neural netværksmodel eller en maskinlæringsmodel, mere generelt, af et hospital lærer isoleret kun på deres egne private patientdata, de vil være naturligt forudindtaget over for den demografi, de ser. For eksempel har vi et eksempel, hvor et hospital træner deres maskinlæringsmodeller på røntgenbilleder af thorax og ser mange tuberkulosetilfælde. Men meget få tilfælde af lungekollaps. Så derfor vil denne neurale netværksmodel, når den er trænet, være meget følsom over for det, der detekterer tuberkulose og mindre følsom over for for eksempel at detektere lungekollaps. Det modsatte får vi dog på et andet hospital. Så det, du virkelig ønsker, er at få disse to hospitaler til at kombinere deres data, så den resulterende neurale netværksmodel kan forudsige begge situationer bedre. Men da du ikke kan dele disse data, kommer sværmlæring ind for at hjælpe med at reducere den skævhed på begge hospitaler.

Laurel: Okay. Så vi har en enorm mængde data. Og det bliver ved med at vokse eksponentielt, efterhånden som kanten, som i virkeligheden er enhver datagenererende enhed, system eller sensor, udvides. Så hvordan ændrer decentrale data den måde, virksomheder skal tænke på data på?

Eng Lim: Åh, det er et dybtgående spørgsmål. Der er et skøn, der siger, at næste år, i år 2022, vil der være 50 milliarder tilsluttede enheder på kanten. Og det her vokser hurtigt. Og vi er ved at nå et punkt, hvor vi i gennemsnit har omkring 10 tilsluttede enheder, der potentielt indsamler data pr. person i denne verden. Givet den situation vil tyngdepunktet skifte fra datacentret, der er det primære sted, der genererer data til et, hvor tyngdepunktet vil være på kanten i forhold til, hvor data genereres. Og dette vil ændre dynamikken enormt for virksomheder. Du vil derfor se behovet for disse enheder, der er derude, hvor denne enorme mængde data genereres på kanten med så mange af disse enheder derude, at du vil nå et punkt, hvor du ikke har råd til at backhaul eller bringe alle de data tilbage til skyen eller datacentret længere.

Selv med 5G, 6G og så videre. Væksten i data vil overgå det, vil langt overstige væksten i båndbredden af ​​disse nye telekommunikationsmuligheder. Som sådan vil du nå et punkt, hvor du ikke har andet valg end at skubbe intelligensen til kanten, så du kan beslutte, hvilke data der skal flyttes tilbage til skyen eller datacentret. Så det bliver en ny tidsalder. Verden vil skifte fra en, hvor du har centraliseret data, hvad vi har været vant til i årtier, til en, hvor du skal være fortrolig med, at data er overalt. Og når det er tilfældet, skal du lave mere peer-to-peer-kommunikation, mere peer-to-peer-samarbejde, mere peer-to-peer-læring.

Og det er grunden til, at sværmlæring bliver mere og mere vigtig, efterhånden som dette skrider frem, efterhånden som tyngdepunktet flytter sig derude fra et, hvor data er centraliseret, til et, hvor data er overalt.

Laurel: Kunne du fortælle lidt mere om, hvordan sværm-intelligens er sikker ved design? Med andre ord giver det virksomheder mulighed for at dele indsigt fra dataindlæring med eksterne virksomheder, eller endda inden for grupper i en virksomhed, men så deler de faktisk ikke de faktiske data?

Eng Lim: Ja. Grundlæggende, når vi ønsker at lære af hinanden, er én måde, at vi deler dataene, så hver af os kan lære af hinanden. Hvad sværmlæring gør, er at forsøge at undgå den deling af data, eller helt forhindre deling af data, til [en model], hvor du kun deler indsigten, du deler læringen. Og det er derfor, det er grundlæggende mere sikkert ved at bruge denne tilgang, hvor data forbliver private på stedet og aldrig forlader den private enhed. Det, der efterlader den private enhed, er kun læringen. Og i dette tilfælde vægter det neurale netværk eller parametrene for disse læringer.

Nu er der folk, der forsker i muligheden for at udlede data fra læringerne, det er stadig i forskningsfasen, men vi er forberedt på, hvis det nogensinde virker. Og det vil sige, i blockchainen laver vi homomorfisk kryptering af vægtene, af parametrene, af læringerne. Med homomorf mener vi, at når den udpegede leder indsamler alle disse vægte og derefter gennemsnittet dem, kan du gennemsnittet dem i krypteret form, så hvis nogen opsnapper blockchain, ser de krypterede læringer. De ser ikke selv læringen. Men vi har ikke implementeret det endnu, for vi ser det ikke nødvendigt endnu, før vi ser, at det bliver muligt at reverse engineering af dataene fra læringerne.

Laurel: Og så, når vi tænker på at øge regler og lovgivning omkring data, som GDPR og Californiens CCPA, skal der være en slags løsning på privatlivsproblemer. Ser du sværmlæring som en af ​​de mulige muligheder, når virksomheder vokser mængden af ​​data, de har?

Eng Lim: Ja, som en mulighed. For det første, hvis der er behov for edge-enheder til at lære af hinanden, er sværmlæring der, og det er nyttigt for det. Og nummer to, mens du er ved at lære, ønsker du ikke, at dataene fra hver enhed eller deltager i sværmlæring forlader denne enhed. Den skal kun blive, hvor den er. Og det, der efterlader, er kun parametrene og læringen. Det ser man ikke kun i et hospitalsscenarie, men det ser man i økonomi. Kreditkortselskaber, for eksempel, vil selvfølgelig ikke dele deres kundedata med et andet konkurrent kreditkortselskab. Men de ved, at lærdommene fra maskinlæringsmodellerne lokalt ikke er så følsomme over for svindeldata, fordi de ikke ser alle de forskellige former for svindel. Måske ser de én form for svindel, men et andet kreditkortselskab ser måske en anden form for svindel.

Swarm learning kunne bruges her, hvor hvert kreditkortfirma holder deres kundedata private, ingen deling af det. Men en blockchain kommer ind og deler læringen, svindeldataindlæringen og indsamler alle disse læringer, sætter et gennemsnit af det og giver det tilbage til alle de deltagende kreditkortselskaber. Så dette er et eksempel. Bankerne kunne gøre det samme. Industrirobotter kunne også gøre det samme.

Vi har en bilkunde, der har titusindvis af industrirobotter, men i forskellige lande. Industrirobotter følger i dag instruktionerne. Men i næste generation af robotter, med AI, vil de også lære lokalt, f.eks. at undgå visse fejl og ikke gentage dem. Hvad du kan gøre ved at bruge sværmlæring er, at hvis disse robotter er i forskellige lande, hvor du ikke kan dele data, sensordata fra lokalmiljøet på tværs af landegrænser, men du har lov til at dele erfaringerne om at undgå disse fejl, kan sværmlæring derfor anvendes. Så du forestiller dig nu en sværm af industrirobotter på tværs af forskellige lande, der deler erfaringer, så de ikke gentager de samme fejl.

Så ja. I virksomheden kan du se forskellige anvendelser af sværmlæring. Finans, teknik og selvfølgelig i sundhedsvæsenet, som vi har diskuteret.

Laurel: Hvordan tror du, at virksomheder skal begynde at tænke anderledes om deres faktiske dataarkitektur for at fremme evnen til at dele disse indsigter, men ikke faktisk dele dataene?

Eng Lim: Først og fremmest skal vi være fortrolige med det faktum, at enheder, der indsamler data, vil sprede sig. Og de vil være på den kant, hvor dataene først lander. Hvad er kanten? Kanten er, hvor du har en enhed, og hvor dataene først lander elektronisk. Og hvis du forestiller dig 50 milliarder af dem næste år, for eksempel, og vokser i ét skøn, skal vi være fortrolige med, at data vil være overalt. Og for at designe din organisation, design den måde, du bruger data på, design den måde, du får adgang til data på med dette koncept i tankerne, dvs. at gå fra en, som vi er vant til, dvs. data bliver centraliseret det meste af tiden, til en, hvor data er overalt. Så den måde, du får adgang til data på, skal være anderledes nu. Du kan nu ikke tænke på først at aggregere alle data, trække alle data, backhaule alle data fra kanten til en central placering og derefter arbejde med dem. Vi skal muligvis skifte til et scenarie, hvor vi arbejder på dataene og lærer af dataene, mens dataene stadig er derude.

Laurel: Så vi snakkede lidt om sundhedspleje og fremstilling. Hvordan forestiller du dig også, at de store ideer om smarte byer og autonome køretøjer passer ind i ideerne om sværm-intelligens?

Eng Lim: Ja ja Ja. Det er to store, store ting. Og meget ens også, du tænker på en smart by, den er fuld af sensorer, fuld af tilsluttede enheder. Du tænker på autonome biler, et skøn siger det til noget i retning af 300 sensorenheder i en bil, som alle samler data. En lignende måde at tænke det på, data vil være overalt og indsamlet i realtid på disse kant-enheder. For smarte byer kan det være gadelys. Vi arbejder med én by med 200.000 gadelys. Og de ønsker at gøre hver eneste af disse gadelygter smarte. Med smart mener jeg evnen til at anbefale beslutninger eller endda træffe beslutninger. Du kommer til et punkt, hvor du, som jeg har sagt før, ikke kan backhaule alle data hele tiden til datacentret og træffe beslutninger, efter du har foretaget aggregeringen. Mange gange skal du træffe beslutninger, hvor dataene indsamles. Og derfor skal tingene være smarte i kanten, nummer et.

Og hvis vi tager det skridt længere end at handle efter instruktioner eller handle på neurale netværksmodeller, der er blevet fortrænede og derefter sendt til kanten, tager du et skridt ud over det, og det vil sige, at du vil have, at edge-enhederne også lærer om deres egne fra de data, de har indsamlet. Men ved at vide, at de indsamlede data er forudindtaget i forhold til det, de kun ser, vil der være behov for sværmlæring på en peer-to-peer måde, for at disse enheder kan lære af hinanden.

Så denne indbyrdes forbundethed, peer-to-peer indbyrdes forbundethed af disse kant-enheder, kræver, at vi genovervejer eller ændrer den måde, vi tænker på computere. Bare tag for eksempel to autonome biler. Vi kalder dem tilsluttede biler til at starte med. To forbundne biler, den ene foran den anden 300 yards eller 300 meter. Den foran, med masser af sensorer i, f.eks. i støddæmperne, fornemmer et hul i vejen. Og det kan faktisk tilbyde de fornemmede data, at der er et hul på vej op til bilerne bagved. Og hvis bilerne bagved tænder for automatisk at acceptere disse, dukker hullet hul på bilen bagveds instrumentbræt. Og bilen bagved betaler bare måske 0,10 cent for den information til bilen foran.

Så du får en situation, hvor du får disse peer-to-peer-deling, i realtid, uden at skulle sende alle disse data først tilbage til en central placering og derefter sende tilbage ned og derefter den nye information til bilen bagved. Så du vil have det til at være peer-to-peer. Så mere og mere, jeg siger ikke, at dette er implementeret endnu, men dette giver dig en idé om, hvordan tænkningen kan ændre sig fremadrettet. Meget mere peer-to-peer-deling og meget mere peer-to-peer-læring.

Laurel: Når man tænker på, hvor længe vi har arbejdet i teknologiindustrien for at tro, at peer-to-peer som en sætning er kommet tilbage, hvor det plejede at betyde, at folk eller endda computere deler forskellige informationer over internettet. Nu er det enheder og sensorer, der deler informationsbidder med hinanden. En slags anderledes definition af peer-to-peer.

Eng Lim: Ja. Tænkning er under forandring. Og peer, ordet peer, peer-to-peer, hvilket betyder, at det har en konnotation af en mere retfærdig deling derinde. Det er grunden til, at der er behov for en blockchain i nogle af disse tilfælde, så der ikke er nogen central depot til at tage et gennemsnit af læringerne, for at kombinere læringerne. Så du vil have et ægte peer-to-peer-miljø. Og det er det, sværmlæring er bygget til. Og nu er grunden til det, det er ikke fordi, vi føler, at peer-to-peer er den næste store ting, og derfor bør vi gøre det. Det er på grund af data og spredningen af ​​disse enheder, der indsamler data.

Forestil dig titusindvis af milliarder af disse derude, og hver eneste af disse enheder bliver smartere og bruger mindre energi for at være så smarte og bevæger sig fra en, hvor de følger instruktionerne eller udleder fra den forudtrænede neurale netværksmodel, der er givet dem, til en, hvor de endda kan komme videre mod læring på egen hånd. Men ved at disse enheder er så mange af dem derude, derfor ser hver af dem kun en lille del. Lille er stadig stor, hvis du kombinerer dem alle, 50 milliarder af dem. Men hver af dem ser kun en lille del af data. Og derfor, hvis de bare lærer isoleret, vil de være stærkt forudindtaget i forhold til det, de ser. Som sådan skal der være en måde, hvor de kan dele deres læring uden at skulle dele deres private data. Og derfor sværmlæring. I modsætning til at backhaule alle de data fra de 50 milliarder kant-enheder tilbage til disse skylokationer, datacenterplaceringerne, så de kan lave den kombinerede læring.

Laurel: Hvilket helt sikkert ville koste mere end en brøkdel af en cent.

Eng Lim: Oh yeah. Der er et ordsprog, båndbredde, du betaler for. Latency, du sveder for. Så det koster. Båndbredde er omkostninger.

Laurel: Så som ekspert i kunstig intelligens, mens vi har dig her, hvad er du mest begejstret for i de kommende år? Hvad ser du, som du tænker, som bliver noget stort i de næste fem, 10 år?

Eng Lim:

Tak, Laurel. Jeg ser ikke mig selv som en ekspert i AI, men en person, der får opgave og begejstret for at arbejde med kunder om AI use cases og lære af dem. Mangfoldigheden af ​​disse forskellige AI-brugscases og læring fra dem - nogle ledende teams, der arbejder direkte på projekterne og fører tilsyn med nogle af projekterne. Men i forhold til spændingen kan det faktisk virke banalt. Og det vil sige, det spændende er, at jeg ser AI. Evnen for smarte systemer til at lære og tilpasse sig og i mange tilfælde yde beslutningsstøtte til mennesker. Og i andre mere begrænsede tilfælde, tag beslutninger til støtte for mennesker. Udbredelsen af ​​kunstig intelligens er i alt, hvad vi gør, mange ting, vi gør - visse ting, vi måske bør begrænse - men i mange ting, vi gør.

Jeg mener, lad os bare bruge de mest basale eksempler. Hvordan denne udvikling kunne være. Lad os tage en lyskontakt. I de tidlige dage, selv indtil i dag, er den mest basale lyskontakt en, hvor den er manuel. Et menneske går foran, slår kontakten på, og lyset tændes. Og smider kontakten fra, og lyset slukker. Så går vi videre til næste niveau. Hvis du vil have en analogi, mere næste niveau, hvor vi automatiserer det skifte. Vi sætter et sæt instruktioner på den kontakt med en lysmåler, og indstiller instruktionerne til at sige, hvis belysningen i dette rum falder til 25% af dens maksimale, skal du tænde. Så dybest set gav vi en instruktion med en sensor til at følge med, til kontakten. Og så er skiftet nu automatisk. Og så når belysningen i rummet falder til 25% af dens peak, af peak belysningen, tænder den lysene. Så nu er skiftet automatiseret.

Nu kan vi endda tage et skridt videre i den automatisering, ved at gøre switchen smart, ved at den kan have flere sensorer. Og derefter gennem kombinationerne af sensorer, træffe beslutninger om, hvorvidt lyset tændes. Og til at styre alle disse sensorer byggede vi en neural netværksmodel, der er blevet fortrænet separat og derefter downloadet til switchen. Det er her, vi er i dag. Switchen er nu smart. Smart by, smarte gadelys, autonome biler og så videre.

Nu, er der et andet niveau ud over det? Der er. Og det er, når switchen ikke bare følger instruktionerne eller ikke bare har en trænet neural netværksmodel til at beslutte på en måde at kombinere alle de forskellige sensordata, for at beslutte hvornår lyset skal tændes på en mere præcis måde. Den går videre til en, hvor den lærer. Det er nøgleordet. Den lærer af fejl. Hvad ville eksemplet være? Eksemplet ville være, baseret på den neurale netværksmodel, den har, som tidligere var fortrænet, downloadet til switchen med alle indstillinger. Den tænder lyset. Men når mennesket kommer ind, siger mennesket, at jeg ikke behøver lyset tændt her denne gang, mennesket slukker lyset. Så indser kontakten, at den faktisk traf en beslutning, som mennesket ikke kunne lide. Så efter et par af disse begynder den at tilpasse sig selv, lære af disse. Tilpas sig selv, så du kan tænde et lys til de skiftende menneskelige præferencer. Det er det næste trin, hvor du ønsker, at edge-enheder, der indsamler data ved kanten, skal lære af dem.

Så, hvis du tager det endnu længere, lærer alle kontakter på dette kontor eller i en boligenhed selvfølgelig af hinanden. Det vil være sværmlæring. Så hvis du derefter udvider skiftet til brødristere, til køleskabe, til biler, til industrirobotter og så videre, vil du se, at hvis vi gør dette, vil vi klart reducere energiforbruget, reducere spild og forbedre produktiviteten. Men nøglen må være, for menneskers bedste.

Laurel: Og hvilken vidunderlig måde at afslutte vores samtale på. Tusind tak for at være med på Business Lab.

Eng Lim: Tak Laurel. Virkelig værdsat.

Laurel: Det var Dr. Eng Lim Goh, senior vicepræsident og CTO for kunstig intelligens hos Hewlett Packard Enterprise, som jeg talte med fra Cambridge, Massachusetts, hjemmet for MIT og MIT Technology Review, med udsigt over Charles River. Det var det for denne episode af Business Lab, jeg er din vært, Laurel Ruma. Jeg er direktør for Insights, den tilpassede udgivelsesafdeling af MIT Technology Review. Vi blev grundlagt i 1899 på Massachusetts Institute of Technology. Og du kan finde os på print, på nettet og til arrangementer hvert år rundt om i verden. For mere information om os og showet, tjek venligst vores hjemmeside på technologyreview.com. Showet er tilgængeligt overalt, hvor du får dine podcasts. Hvis du kunne lide denne episode, håber vi, at du vil bruge et øjeblik på at bedømme og anmelde os. Business Lab er en produktion af MIT Technology Review. Denne episode blev produceret af Collective Next. Tak for at lytte.

Denne podcast-episode blev produceret af Insights, den tilpassede indholdsarm af MIT Technology Review. Den blev ikke produceret af MIT Technology Reviews redaktion.

skjule