211service.com
Claude Shannon: Modvillig far til den digitale tidsalder
Hent en yndlings-cd. Smid det nu på gulvet. Smør det med dine fingeraftryk. Skub den derefter ind i åbningen på afspilleren - og lyt, mens musikken kommer lige så krystalklar ud som den dag, du åbnede plastikkassen. Inden du går videre med resten af din dag, skal du tænke over manden, hvis revolutionære ideer gjorde dette mirakel muligt: Claude Elwood Shannon.
Shannon, der døde i februar efter længere tids sygdom, var en af de største af de giganter, der skabte informationsalderen. John von Neumann, Alan Turing og mange andre visionære gav os computere, der kunne behandle information. Men det var Claude Shannon, der gav os det moderne informationsbegreb - et intellektuelt spring, der giver ham en plads på uanset hvilken højteknologisk ækvivalent til Mount Rushmore, der en dag er etableret.
Denne historie var en del af vores juli 2001-udgave
- Se resten af problemet
- Abonner
Hele videnskaben om informationsteori voksede ud af et elektrificerende papir, som Shannon offentliggjorde i 1948, da han var en 32-årig forsker ved Bell Laboratories. Shannon viste, hvordan det engang så vage begreb om information kunne defineres og kvantificeres med absolut præcision. Han demonstrerede den essentielle enhed af alle informationsmedier og påpegede, at tekst, telefonsignaler, radiobølger, billeder, film og enhver anden kommunikationsmåde kunne kodes i det universelle sprog med binære cifre, eller bits - et udtryk, som hans artikel var den første til at blive brugt på tryk. Shannon fremlagde ideen om, at når information først blev digital, kunne den transmitteres uden fejl. Dette var et betagende konceptuelt spring, der førte direkte til så velkendte og robuste objekter som cd'er. Shannon havde skrevet en plan for den digitale tidsalder, siger MIT informationsteoretiker Robert Gallager, som stadig er beæret over avisen fra 1948.
Og det tæller ikke engang den kandidatafhandling Shannon havde skrevet 10 år tidligere - den, hvor han formulerede principperne bag alle moderne computere. Claude gjorde så meget for at muliggøre moderne teknologi, at det er svært at vide, hvor man skal starte og slutte, siger Gallager, der arbejdede med Shannon i 1960'erne. Han havde denne fantastiske klarhed i synet. Einstein havde det også - denne evne til at påtage sig et kompliceret problem og finde den rigtige måde at se på det, så tingene bliver meget enkle.
Tirrer mod i morgen
For Shannon var det hele bare endnu en måde at have det sjovt på. Claude elskede at grine og at drømme om ting, der var usædvanlige, siger den pensionerede Bell Labs-matematiker David Slepian, som var en samarbejdspartner for Shannons i 1950'erne. Shannon gik til matematik som en scenemagiker, der øvede sig på sit håndelag: Han ville cirkle rundt og angribe problemet fra en retning, du aldrig ville have tænkt på, siger Slepian-only for at forbløffe dig med et svar, der havde været lige foran din ansigt hele tiden. Men så havde Shannon også et stort repertoire af rigtige korttricks. Han lærte sig selv at køre på ethjulet cykel og blev berømt for at køre på den ned ad Bell Labs gange om natten, mens han jonglerede. (Han havde været gymnast på college, så han var bedre til det, end du måske havde troet, siger hans kone Betty, der gav ham cyklen i julegave i 1949.)
Derhjemme brugte Shannon sin fritid på at bygge alle mulige bizarre maskiner. Der var Throbac (THrifty ROMan-numerical Backward-looking Computer), en lommeregner, der lavede aritmetik med romertal. Der var Theseus, en mekanisk mus i naturlig størrelse, der kunne finde vej gennem en labyrint. Og måske mest berømt var der Ultimate Machine - en boks med en stor kontakt på siden. Tænd for kontakten, og låget ville langsomt hæve sig, og afslørede en mekanisk hånd, der ville række ned, slukke for kontakten og trække sig tilbage og forlade kassen, som den var.
Jeg har altid været interesseret i at bygge ting med sjove bevægelser, forklarede Shannon i et interview fra 1987 med magasinet Omni (en af de få gange, han talte om sit liv offentligt). I sin hjemby Gaylord i det nordlige Michigan, huskede han, brugte han sine første år på at sammensætte modelfly, radiokredsløb, en radiostyret modelbåd og endda et telegrafsystem. Og da han kom ind på University of Michigan i 1932, tøvede han ikke med at tage hovedfag i elektroteknik.
Efter sin eksamen i 1936 gik Shannon direkte til MIT for at påtage sig en arbejds-studiestilling, som han havde set annonceret på et postkort klæbet til en campus opslagstavle. Han skulle bruge halvdelen af sin tid på at forfølge en kandidatgrad i elektroteknik og den anden halvdel på at arbejde som laboratorieassistent for computerpioneren Vannevar Bush, MITs vicepræsident og ingeniørdekan. Bush gav Shannon ansvaret for Differential Analyzer, et kompliceret system af tandhjul, remskiver og stænger, der optog det meste af et stort rum - og det var uden tvivl den mægtigste computermaskine på planeten på det tidspunkt ( se Beregning efter silicium , TR maj/juni 2000 ).
Udtænkt af Bush og hans elever i slutningen af 1920'erne, og færdiggjort i 1931, var Differential Analyzer en analog computer. Det repræsenterede ikke matematiske variable med etere og nuller, som digitale computere gør, men af et kontinuerligt værdiområde: den fysiske rotation af stængerne. Shannons opgave var at hjælpe besøgende videnskabsmænd med at programmere deres problemer på analysatoren ved at omarrangere de mekaniske forbindelser mellem stængerne, så deres bevægelser ville svare til de passende matematiske ligninger.
Shannon kunne ikke have bedt om et job, der passer bedre til hans kærlighed til sjove bevægelser. Han blev især tiltrukket af analysatorens vidunderligt komplicerede kontrolkredsløb, som bestod af omkring hundrede relækontakter, der automatisk kunne åbnes og lukkes af en elektromagnet. Men det, der især fascinerede ham, var, hvor tæt relæernes drift lignede den symbolske logiks virkemåde, et emne, han netop havde studeret i løbet af sit sidste år i Michigan. Hver kontakt var enten lukket eller åben - et valg, der svarede
præcis til det binære valg i logik, hvor et udsagn enten var sandt eller falsk. Desuden indså Shannon hurtigt, at switches kombineret i kredsløb kunne udføre standardoperationer af symbolsk logik. Analogien var tilsyneladende aldrig blevet anerkendt før. Så Shannon gjorde det til genstand for sin kandidatafhandling og brugte det meste af 1937 på at udrede implikationerne. Han fortalte senere en interviewer, at han havde det sjovere med at gøre det end noget andet i mit liv.
Sandt eller falsk?
Hans afhandling, A Symbolic Analysis of Relay and Switching Circuits, giver bestemt en overbevisende læsning - især i betragtning af, hvad der er sket i de mere end 60 år siden den blev skrevet. Som en sidebemærkning mod slutningen påpegede Shannon f.eks., at de logiske værdier sand og falsk lige så godt kunne betegnes med de numeriske cifre 1 og 0. Denne erkendelse betød, at relæerne kunne udføre de dengang mystiske operationer af binær aritmetik . Således, skrev Shannon, er det muligt at udføre komplekse matematiske operationer ved hjælp af relækredsløb. Som en illustration viste Shannon designet af et kredsløb, der kunne tilføje binære tal.
Endnu vigtigere, Shannon indså, at et sådant kredsløb også kunne foretage sammenligninger. Han så muligheden for en enhed, der kunne tage alternative handlingsmuligheder i henhold til omstændighederne - som i, hvis tallet X er lig med tallet Y, så udføre operation A. Shannon gav en simpel illustration af denne mulighed i sit speciale ved at vise, hvordan relæ kontakter kunne arrangeres til at producere en lås, der åbnede, hvis og kun hvis en række knapper blev trykket i den rigtige rækkefølge.
Implikationerne var dybe: et skiftekredsløb kunne bestemme - en evne, der engang havde virket unik for levende væsener. I de kommende år vil udsigten til beslutningsmaskiner inspirere hele feltet af kunstig intelligens, forsøget på at modellere menneskelig tankegang via computer. Og måske helt tilfældigt ville det felt fascinere Claude Shannon resten af hans liv.
Fra et mere umiddelbar synspunkt var et skiftekredsløbs evne til at bestemme, hvad der ville gøre de digitale computere, der opstod efter Anden Verdenskrig, til noget fundamentalt nyt. Det var ikke deres matematiske evner i sig selv, som samtiden fandt så opsigtsvækkende (selvom maskinerne bestemt var meget hurtige); selv i 1940'erne var verden fuld af elektromekaniske skrivebordsberegnere, der kunne lave simple additioner og subtraktioner. Den forbløffende del var de nye computeres evne til at fungere under kontrol af et internt program, beslutte mellem forskellige alternativer og udføre komplekse sekvenser af kommandoer på egen hånd.
Alt dette er grunden til, at A Symbolic Analysis of Relay and Switching Circuits, udgivet i 1938, er blevet kaldt den vigtigste kandidatafhandling i det 20. århundrede. I sine tidlige 20'ere havde Claude Shannon haft den indsigt, der var afgørende for at organisere de interne operationer af en moderne computer - næsten et årti før sådanne computere overhovedet eksisterede. I de mellemliggende år er skifteteknologien udviklet sig fra elektromekaniske relæer til mikroskopiske transistorer ætset på silicium. Men den dag i dag taler og tænker mikrochipdesignere stadig i forhold til deres chipss interne logik - et koncept, der i vid udstrækning er båret af Shannons arbejde.
Perfekt information
Med opmuntring fra Vannevar Bush besluttede Shannon at følge op på sin kandidatgrad med en doktorgrad i matematik - en opgave, som han fuldførte på blot halvandet år. Ikke længe efter at have modtaget denne grad i foråret 1940 sluttede han sig til Bell Labs. Da USA's indtræden i Anden Verdenskrig tydeligvis kun var et spørgsmål om tid, gik Shannon straks i gang med militære projekter som antiluftskyts ildkontrol og kryptografi (fremstilling af kode og brud).
Ikke desto mindre fandt Shannon altid tid til at arbejde med den grundlæggende teori om kommunikation, et emne, der havde vakt hans interesse flere år tidligere. Af og til, Shannon havde skrevet til Bush i februar 1939, i et brev, der nu er bevaret i Library of Congress arkiver, har jeg arbejdet på en analyse af nogle af de grundlæggende egenskaber ved generelle systemer til transmission af intelligens, herunder telefoni, radio, fjernsyn, telegrafi osv. For at gøre fremskridt mod dette mål havde han brug for en måde at specificere, hvad der blev transmitteret under kommunikationshandlingen.
Med udgangspunkt i Bell Labs ingeniør Ralph Hartleys arbejde formulerede Shannon et stringent matematisk udtryk for informationsbegrebet. I det mindste i de simpleste tilfælde, sagde Shannon, var informationsindholdet i en meddelelse antallet af binære enere og nuller, der kræves for at kode den. Hvis du på forhånd vidste, at en besked ville formidle et simpelt valg - ja eller nej, sandt eller falsk - så ville et binært ciffer være tilstrækkeligt: et enkelt et eller et enkelt nul fortalte dig alt, hvad du havde brug for at vide. Meddelelsen ville således blive defineret til at have én informationsenhed. En mere kompliceret meddelelse ville på den anden side kræve flere cifre at kode og ville indeholde så meget mere information; tænk på de tusinder eller millioner af enere og nuller, der udgør en tekstbehandlingsfil.
Som Shannon indså, havde denne definition sine perverse aspekter. En besked bærer måske kun én binær enhed af information - Ja - men en verden af mening - som i, Ja, jeg vil gifte mig med dig. Men ingeniørernes opgave var at få dataene herfra til der med et minimum af forvrængning, uanset indholdet. Og til det formål var den digitale definition af information ideel, fordi den gav mulighed for en præcis matematisk analyse. Hvad er grænserne for en kommunikationskanals kapacitet? Hvor meget af den kapacitet kan du bruge i praksis? Hvad er de mest effektive måder at kode information til transmission i uundgåelig tilstedeværelse af støj?
At dømme efter hans kommentarer mange år senere, havde Shannon skitseret sine svar på sådanne spørgsmål i 1943. Mærkeligt nok synes han dog ikke at have følt noget presserende med at dele disse indsigter; nogle af hans nærmeste medarbejdere på det tidspunkt sværger, at de ikke havde nogen anelse om, at han arbejdede med informationsteori. Han havde heller ikke travlt med at udgive og dermed sikre sig æren for arbejdet. Jeg var mere motiveret af nysgerrighed, forklarede han i sit interview fra 1987 og tilføjede, at processen med at skrive til udgivelse var smertefuld. I sidste ende overvandt Shannon imidlertid sin modvilje. Resultatet: det banebrydende papir A Mathematical Theory of Communication, som udkom i juli og oktober 1948-udgaverne af Bell System Teknisk Journal .
Shannons ideer eksploderede med kraften fra en bombe. Det var som et lyn ud af det blå, husker John Pierce, som var en af Shannons bedste venner på Bell Labs, og alligevel lige så overrasket over Shannons papir som nogen andre. Jeg kender ikke til nogen anden teori, der kom i en sådan fuldstændig form, med meget få forhistorier eller historie. Der var faktisk noget ved denne forestilling om at kvantificere information, der satte gang i folks fantasi. Det var en åbenbaring, siger Oliver Selfridge, som dengang var kandidatstuderende ved MIT. Omkring MIT var reaktionen, genialt! Hvorfor tænkte jeg ikke på det?’
Meget af kraften i Shannons idé lå i dens forening af, hvad der havde været en mangfoldig flok af teknologier. Indtil da var kommunikation ikke en samlet videnskab, siger MITs Gallager. Der var et medie til stemmetransmission, et andet medie til radio, atter andre til data. Claude viste, at al kommunikation grundlæggende var den samme - og desuden, at man kunne tage enhver kilde og repræsentere den med digitale data.
Alene denne indsigt ville have gjort Shannons papir til en af de store analytiske bedrifter i det 20. århundrede. Men der var mere. Antag, at du prøvede at sende f.eks. en fødselsdagshilsen ned ad en telegraflinje eller via et trådløst link eller endda i amerikansk post. Shannon var i stand til at vise, at enhver sådan kommunikationskanal havde en hastighedsgrænse, målt i binære cifre per sekund. Den dårlige nyhed var, at over den hastighedsgrænse var perfekt troskab umuligt: Uanset hvor smart du kodede din besked og komprimerede den, kunne du simpelthen ikke få den til at gå hurtigere uden at smide nogle oplysninger væk.
Den overvældende gode nyhed var imidlertid, at under denne hastighedsgrænse var transmissionen potentielt perfekt. Ikke bare meget godt: perfekt. Shannon gav et matematisk bevis på, at der skulle eksistere koder, der ville få dig helt op til grænsen uden at miste nogen information overhovedet. Desuden demonstrerede han, at perfekt transmission ville være mulig, uanset hvor meget statisk elektricitet og forvrængning der måtte være i kommunikationskanalen, og uanset hvor svagt signalet måtte være. Selvfølgelig skal du muligvis kode hvert bogstav eller pixel med et stort antal bits for at sikre, at nok af dem kommer igennem. Og du skal muligvis udtænke alle slags smarte fejlretningsskemaer, så beskadigede dele af meddelelsen kan rekonstrueres i den anden ende. Og ja, i praksis ville koderne efterhånden blive så lange og kommunikationen så langsom, at man måtte give op og lade støjen vinde. Men i princippet kunne man lave fejlsandsynligheden så tæt på nul, som man ville.
Denne grundlæggende sætning om informationsteori, som Shannon kaldte den, havde overrasket selv ham, da han opdagede den. Erobringen af støj syntes at krænke al sund fornuft. Men for hans samtidige i 1948, da han så teoremet for første gang, var effekten elektrificerende. For at gøre risikoen for fejl så lille, som du ønsker? Ingen havde nogensinde tænkt på det, undrer MITs Robert Fano, som selv blev en førende informationsteoretiker i 1950'erne - og som stadig har et ærbødigt fotografi af Shannon hængende på sit kontor. Hvordan han fik den indsigt, hvordan han overhovedet kom til at tro på sådan noget, ved jeg ikke. Men næsten al moderne kommunikationsteknik er baseret på det arbejde.
Shannons arbejde hænger over alt, hvad vi gør, er enig Robert Lucky, corporate vice president for anvendt forskning hos Telcordia, Bell Labs spinoff tidligere kendt som Bellcore. Faktisk, bemærker han, har Shannons grundlæggende teorem tjent som et ideal og en udfordring for efterfølgende generationer. I 50 år har folk arbejdet for at komme til den kanalkapacitet, han sagde var mulig. Først for nylig er vi kommet tæt på. Hans indflydelse var dyb.
Og, tilføjer Lucky, Shannons arbejde inspirerede udviklingen af alle vores moderne fejlkorrigerende koder og datakomprimeringsalgoritmer. Med andre ord: ingen Shannon, ingen Napster.
Shannons teorem forklarer, hvordan vi tilfældigt kan kaste rundt på cd'er på en måde, som ingen ville have turdet med langspillende vinylplader: disse fejlkorrigerende koder tillader cd-afspilleren praktisk talt at eliminere støj på grund af ridser og fingeraftryk, før vi nogensinde hører det . Shannons teorem forklarer ligeledes, hvordan computermodemmer kan transmittere komprimerede data med titusindvis af bits i sekundet over almindelige, støjfyldte telefonlinjer. Det forklarer, hvordan NASA-forskere var i stand til at få billeder af planeten Neptun tilbage til Jorden på tværs af tre milliarder kilometer interplanetarisk rum. Og det er langt hen imod at forklare, hvorfor ordet digital er blevet synonymt med den højest mulige standard for datakvalitet.
Slukker
Udmærkelserne for Shannons arbejde kom hurtigt. Warren Weaver, direktør for Rockefeller Foundations Natural Sciences Division, erklærede, at informationsteori omfattede alle de procedurer, hvorved et sind kan påvirke et andet, herunder ikke kun skriftlig og mundtlig tale, men også musik, billedkunst, teater, ballet , og faktisk al menneskelig adfærd. Magasinet Fortune kunne næsten ikke rumme sin entusiasme, da informationsteorien blev kaldt en af menneskets stolteste og mest sjældne skabninger, en stor videnskabelig teori, som dybtgående og hurtigt kunne ændre menneskets syn på verden. Shannon selv var snart nødt til at afsætte et helt værelse i sit hjem bare for at holde alle sine citater, plaketter og vidnesbyrd.
Inden for et år eller to efter hans papirs udgivelse var Shannon dog forfærdet over at opdage, at informationsteorien var ved at blive populær. Folk sagde latterlige ting om mængden af information, der kom ud af solen, eller endda informationsindholdet i støj. Forskere indsendte ansøgninger om tilskud, der henviste til informationsteori, uanset om deres forslag havde noget med det at gøre eller ej. Informationsteori var ved at blive et buzzword, ligesom kunstig intelligens, kaos og kompleksitet ville gøre det i 1980'erne og 1990'erne. Og Shannon hadede det. I et papir fra 1956 med titlen The Bandwagon i tidsskriftet Transaktioner på informationsteori , erklærede han, at informationsteorien blev stærkt oversolgt. Det har måske balloneret til en betydning ud over dets faktiske resultater, skrev han.
I stedet for at fortsætte med at kæmpe, hvad han vidste var en tabt kamp, droppede Shannon ud. Selvom han i en periode fortsatte sin forskning i informationsteori, afviste han næsten alle de endeløse invitationer til at foredrage eller give avisinterviews; han ville ikke være berømthed. Han holdt også op med at svare på meget af hans mail. Korrespondance fra store skikkelser inden for videnskab og regering endte med at blive glemt og ubesvaret i en mappe, som han kaldte Breve, jeg har udsat for længe med. Som årene gik, begyndte Shannon faktisk at trække sig ikke bare fra offentligheden, men fra forskersamfundet - en holdning, der bekymrede hans kolleger ved MIT, som havde hyret ham væk fra Bell Labs i 1958. Han skrev smukke artikler - da han skrev, siger MITs Fano. Og han holdt smukke foredrag - når han holdt en tale. Men han hadede at gøre det.
Fra tid til anden fortsatte Shannon med at udgive. Et bemærkelsesværdigt eksempel, før han blev for forfærdet over sin berømthed og trak sig mere fuldstændigt tilbage, var en banebrydende artikel fra 1950 for Scientific American beskriver hvordan en computer kan være programmeret til at spille skak. Men han forsvandt langsomt fra den akademiske scene, husker Peter Elias, en anden leder af MIT-informationsteorigruppen. Claudes vision for undervisningen var at holde en række foredrag om forskning, som ingen andre kendte til. Men det tempo var meget krævende; faktisk kom han med et forskningspapir hver uge. I midten af 1960'erne, husker Elias, var Shannon holdt op med at undervise.
Efter sin officielle pensionering i 1978, i en alder af 62, trak Shannon sig lykkeligt tilbage til sit hjem i Boston-forstaden Winchester, MA. Penge var ikke en bekymring; takket være sit kendskab til de højteknologiske industrier, der dukkede op omkring Bostons Route 128, havde han foretaget nogle smarte investeringer på aktiemarkedet. Der syntes heller ikke at være nogen formindskelse af hans opfindsomhed. Han byggede stadig ting! husker Betty Shannon med et grin. Den ene var en...figur af W. C. Fields, der hoppede tre bolde på et trommehoved. Det lavede en helvede larm, lad mig fortælle dig!
Ikke desto mindre kom der et tidspunkt omkring 1985, hvor han og Betty begyndte at bemærke visse bortfald. Han ville køre en tur og glemme, hvordan han kom hjem. I 1992, da Institute of Electrical and Electronics Engineers forberedte sig på at udgive hans samlede papirer, blev Shannon foruroliget over at indse, at han ikke kunne huske at have skrevet mange af dem. Og i midten af 1993, da hans tilstand blev tydelig for alle, bekræftede familien, hvad mange var begyndt at ane: Claude Shannon havde Alzheimers sygdom. Senere samme år anbragte hans familie ham modvilligt på et plejehjem.
I 1998, da hans hjemby Gaylord, MI, fejrede informationsteoriens 50-års jubilæum ved at afsløre en buste af dens skaber i en bypark, takkede Betty Shannon byen i hans sted. Fysisk, siger hun, havde han det fint næsten indtil det sidste, hvor alt så ud til at falde sammen på én gang. Men den 24. februar, kun to måneder før Shannons 85-års fødselsdag, kom enden. Responsen på hans død har været overvældende, siger hun. Jeg tror, det ville have forbløffet ham.
