Claude Shannon a definit informaţia ca. Cine este Claude Shannon și de ce este celebru? Teoria comunicării în sisteme secrete

În anii 40. om de știință american din secolul trecut K. Shannon, care s-a specializat în lățimea de bandă a canalelor de comunicare și codificarea mesajelor, a dat măsurării cantității de informații o formă mai universală : cantitatea de informație a ajuns să fie înțeleasă ca cantitatea de entropie cu care entropia totală a sistemului este redusă ca urmare a primirii de informații de către acest sistem. Această formulă exprimă entropia în termenii sumei unui număr de probabilități înmulțite cu logaritmii lor și se referă numai la entropia (incertitudinea) mesajului.

Entropie este o măsură cantitativă a incertitudinii eliminate la primirea informațiilor.

Cu alte cuvinte, continutul informativ al mesajului este invers proportional cu evidenta acestuia, predictibilitate, probabilitate: cu cât mesajul este mai puțin previzibil, neevident și improbabil, cu atât este mai multă informație pentru destinatar. Un mesaj absolut evident (cu probabilitate egală cu 1) este la fel de gol ca absența completă a unui astfel de mesaj (adică, un mesaj a cărui probabilitate este cunoscută ca fiind 0). Ambele, conform presupunerii lui Shannon, nu sunt informative, nu transportă nicio informație destinatarului. Dintr-o serie de motive legate de matematică și legate de comoditatea formalizării, entropia unui mesaj este descrisă de Shannon ca o funcție a distribuției variabilelor aleatoare.

Articolul „Teoria matematică a comunicării”, a fost publicat în 1948 și l-a făcut pe Claude Shannon celebru în lume. În ea, Shannon și-a conturat ideile, care au devenit ulterior baza teoriilor și tehnicilor moderne de procesare a transmiterii și stocării informațiilor. Rezultatele muncii sale în domeniul transmiterii informațiilor prin canale de comunicare au lansat un număr imens de studii în întreaga lume. Shannon a generalizat ideile lui Hartley și a introdus conceptul de informație conținută în mesajele transmise. Ca măsură a informației mesajului transmis M, Hartley a propus să folosească funcția logaritmică. Shannon a fost primul care a luat în considerare mesajele transmise și zgomotul pe canalele de comunicare din punct de vedere statistic., luând în considerare atât seturile finite de mesaje, cât și seturile continue de mesaje.

Teoria informației dezvoltată de Shannon a ajutat la rezolvarea principalelor probleme asociate cu transmiterea mesajelor și anume: eliminarea redundanței mesajelor transmise, legume şi fructe codificarea si transmiterea mesajelor prin canale de comunicatie cu zgomot.

Rezolvarea problemei redundanței mesajul de transmis permite utilizarea cât mai eficientă a canalului de comunicare. De exemplu, tehnicile actuale omniprezente de reducere a redundanței în sistemele de difuzare de televiziune permit astăzi transmiterea a până la șase programe de televiziune comercială digitală în banda de frecvență ocupată de un semnal de televiziune analogic convențional.

Rezolvarea problemei transmiterii mesajelor pe canalele de comunicare cu zgomot la un raport dat dintre puterea semnalului util și puterea semnalului de interferență la locul recepției, face posibilă transmiterea mesajelor prin canalul de comunicație cu o probabilitate arbitrar mică de transmitere eronată a mesajului. De asemenea, acest raport determină lățimea de bandă a canalului. Acest lucru este asigurat prin utilizarea codurilor rezistente la interferențe, în timp ce rata de transmitere a mesajelor pe un anumit canal trebuie să fie mai mică decât capacitatea acestuia.

Cine este Claude Shannon și ce a făcut, veți afla din acest articol.

Claude Shannon și de ce este celebru? scurt

(ani de viață: 20 aprilie 1916 - 24 februarie 2001) este un remarcabil om de știință american care este creatorul teoriei informaţiei. Ca tânăr om de știință, omul de știință a proiectat cu entuziasm diverse dispozitive automate și mecanice, a asamblat modele de aeronave și circuite radio. Are multe diplome academice: licență în matematică și inginerie electrică, doctor în științe în matematică, master în inginerie electrică.

Claude Shannon și contribuțiile sale la informatică

Realizările lui Claude Shannon au determinat viitorul spațiului informațional. El a dezvoltat legile fundamentale ale transmiterii informațiilor și teoria informației, care a evoluat din 6 teoreme conceptuale:

  • Teorema de cuantificare a informațiilor.
  • Teorema de ambalare rațională pentru codificarea primară.
  • Teorema de potrivire a fluxului de informații cu lățimea de bandă a canalului de comunicație fără interferențe.
  • Teorema potrivirii fluxului de informații cu capacitatea unui canal de comunicare binar cu zgomot.
  • Teorema pentru estimarea debitului unui canal de comunicare continuu.
  • Teorema reconstrucției fără erori a unui semnal continuu.

În plus, om de știință a creat în 1950 un robot mouse cu începuturile inteligenței artificiale. Putea să meargă într-un labirint și să găsească o cale de ieșire.

Era Shannon în 1948 sugerat folosirea cuvântului "bit" pentru a desemna cea mai mică unitate de informație.

În plus, conceptul de entropie a fost o caracteristică importantă a teoriei lui Shannon. El a demonstrat că entropia introdusă de el este echivalentă cu măsura incertitudinii informației din mesajul transmis. Articolele lui Shannon „Teoria matematică a comunicării” și „Teoria comunicării în sistemele secrete” sunt considerate fundamentale pentru teoria informației și criptografie.

Claude Shannon a fost unul dintre primii care au a abordat criptografia din punct de vedere științific, el a fost primul care a formulat fundamentele sale teoretice și a introdus multe concepte de bază în considerare. Shannon a adus contribuții cheie la teoria schemelor probabilistice, teoria jocurilor, teoria automatelor și teoria sistemelor de control - domenii ale științei incluse în conceptul de „cibernetică”.

De asemenea, a lăsat în urmă o bogată moștenire filozofică și aplicată. Claude Shannon a creat o teorie generală a tehnologiei computerului și a dispozitivelor de automatizare discrete, o tehnologie pentru utilizarea eficientă a unui mediu de canal. Toate arhivatoarele moderne care sunt folosite în lumea computerelor funcționează datorită teoremei omului de știință despre codificarea eficientă.

În ceea ce privește moștenirea filozofică, el deține două idei:

  • Scopul oricărui tip de management- aceasta este o scădere a entropiei, ca o anumită măsură a dezordinei și incertitudinii în mediul sistemului. Și din moment ce conducerea nu poate rezolva această problemă până la capăt, este redundantă, adică inutilă.
  • Totul în această lume este un „canal de comunicare”. Rolul său este jucat de colectiv, și de individ, și de industrie, și de întregul mediu funcțional, și de țară în ansamblu, și de structura de transport. Și pentru a obține rezultate bune este necesară coordonarea deciziilor informaționale, tehnice, guvernamentale și umanitare cu lățimea de bandă a mediului de canal de comunicare cu care interacționează.

Sperăm că citind acest articol, ați aflat ce a făcut Claude Shannon pentru dezvoltarea științei informației.

Nu exista „Informații” în vechile enciclopedii. „Inflatorii polonezi” au fost imediat urmați de „Infralapsaria”. Și când un astfel de articol a apărut într-o ediție publică, Mica Enciclopedie Sovietică din 1929, înțelesul termenului de informație era foarte departe de cel modern.

Informare (lat.), conștientizare. Informativ - informativ. În presa periodică, departamentul de informare este acea parte a ziarului, revistei etc., care conține telegrame, corespondență, interviuri, precum și informații date de reporteri.

Numeroși informatori în acei ani, care furnizează organizațiilor curioase cu date despre viața colegilor și vecinilor, din motive evidente, nu au intrat în publicațiile publice. Dar este interesant că, deși în tehnologia comunicațiilor, în special în canalele staționare, cheia Morse a fost înlocuită până la acel moment de dispozitive de pornire și oprire, oamenii au descris succint activitățile informatorilor descriși mai sus - ei „bat”. „Computerra” abia în secolul următor a trebuit să spună cititorilor că ciocănitoarea din pădure funcționează ca un modem viu, iar înțeleptul inconștient colectiv și-a însușit deja „ciocănitoarea” lapidară acelor numeroși și modesti informatori!

Anticii romani foloseau cuvantul informatio in sensul - interpretare, prezentare - dar conceptul modern, extrem de incapator de informatie este rodul dezvoltarii stiintei si tehnologiei in egala masura. Latina in-formo (a modela, compune, imagina) a fost folosită de Cicero și este legată de ideile primare platonice prin grecescul, foarte polisemantic, eidos. Dar termenul cu drepturi depline „informație” a apărut relativ târziu, chiar și după primele calculatoare electronice, cazane atomice și bombe.

A fost introdus de Claude Shannon în lucrarea sa din 1948 „A Mathematical Theory of Communication”. Și a fost adus la viață de nevoia practică dură de a transmite mesaje pe canale zgomotoase. La fel ca și generațiile de mai devreme, necesitatea de a lua în considerare caracteristicile dinamice ale liniilor telegrafice a dat naștere lucrărilor strălucite ale lui Heaviside.

Conceptul de informație este introdus pur matematic. Un concept destul de popular, dar și exact este dat în vechea lucrare a fraților Yaglomov, foarte cunoscută în URSS. Informația este introdusă ca o opoziție, opoziție față de entropie. Zgomot, haos, incertitudine, „ignoranță”.

Iar entropia a fost introdusă în teoria comunicării chiar mai devreme, în 1928, prin munca de pionierat a inginerului electronic american Ralph Vinton Lyon Hartley. Apropo, observăm că, vorbind de probleme pur practice ale comunicării, Hartley a menționat „factori psihologici” care afectează măsura incertitudinii. În general, aparatul matematic folosit de el (și mai târziu de Shannon) a fost teoria probabilității. O disciplină care a apărut din dragostea aristocraților francezi pentru jocurile de noroc.

Și conceptul de entropie în acele vremuri, chiar și în fizică, avea o culoare emoțională - desigur! - la urma urmei, chiar prima consecință a acestei formulări timpurii a fost înțelegerea imposibilității creării unei mașini cu mișcare perpetuă de al doilea fel. Un dispozitiv care ar putea produce lucru din cauza căldurii disipate în jurul său.

Pătrunderea acestor concepte în mediul științific a fost extrem de dramatică. În primul rând - „moartea termică” a Universului. Pentru a ne imagina cum a fost perceput acest concept în anii formării sale, trebuie să apelăm la atmosfera intelectuală a secolului al XIX-lea. Deși a început cu o mașină de tocat carne săvârșită de mașina militaro-birocratică a lui Napoleon, acest secol s-a dovedit a fi un moment al triumfului progresului.

Și atunci noțiunea de nescădere a haosului, a „moartei termice” a Universului PREVIZIT DE ȘTIINȚĂ, a invadat splendoarea progresului, drumul strălucitor spre complicație și fericire. Nu, nu despre ziua apocalipsei religiilor, urmată de o nouă viață în noul cer și pe noul pământ. Despre o moarte universală științifică, tangibilă și fără speranță, deși foarte îndepărtată, dar absolut inevitabilă.

Și nu doar oamenii de știință au realizat acest lucru. Să trecem la Pescăruşul lui Cehov.

Iată un monolog al Ninei Zarechnaya într-un episod cu o piesă inserată de un scriitor deliberat rău: „Oameni, lei, vulturi și potârnichi, căprioare cu coarne, gâște, păianjeni, pești tăcuți care trăiau în apă, stele de mare și cei care nu puteau. fi văzut cu ochiul - într-un cuvânt, toate viețile, toate viețile, după ce și-au încheiat cercul trist, au dispărut...<...>Frig, frig, frig. Gol, gol, gol. Înfricoșător, înfricoșător, înfricoșător..."

Să ne amintim sinuciderea fiului lui K. E. Tsiolkovsky, cauzată, potrivit biografilor, de oroarea viitoarei „moarte termice”. Într-adevăr, pentru susținătorii materialismului, care era foarte răspândit în cercurile intelectuale ale vremii, încetarea mișcării moleculare din cauza atingerii unui maxim de entropie a însemnat TOT moartea. Viața a devenit lipsită de sens pentru o persoană predispusă la generalizări și extrapolări.

Introducerea de către Ralph Hartley a conceptului de entropie în transmiterea mesajelor și – de către Claude Shannon – antitezele acestuia – deja informația însăși, cu toată aparenta lor TEHNICĂ, au fost evenimente de o semnificație ideologică colosală. Pentru prima dată, științele pozitive și mână în mână cu ingineria, frontiera high-tech de atunci, au ajuns acolo unde domniseră anterior filosofia, metafizica și teologia.

Cea mai amuzantă reacție la teoria informației și cibernetica a fost în URSS stalinistă. S-ar părea - triumful materialismului. Dar nu a fost cazul... În țara bolșevică, teoria informației (precum și teoria relativității, mecanica cuantică, Universul nestaționar) nu era prevăzută în codul fundamentelor ideologice. Ei bine, clasicii marxismului nu au avut timp să vorbească despre asta. Da, și încă nu au putut... Și foarte tânăra cibernetică a fost declarată fata coruptă a imperialismului. Încercările de a o reabilita la începutul anilor şaizeci nu au rezolvat nimic. Cu toate acestea, acesta este un subiect pentru o discuție separată.

Iar conceptul de informație introdus de Shannon, după ce a transformat lumea din jurul nostru, devenind baza celei de-a doua naturi, revine din ce în ce mai mult la fizica teoretică. Fizicianul israelian, creatorul teoriei termodinamice a găurilor negre, Jacob David Bekenstein (Bekenstein, n. 1947) a sugerat5 că aceasta este o tendință generală a științei naturale moderne.

În fenomenul de „întanglement cuantic” al particulelor (întanglement cuantic), informația apare într-una din hainele sale noi și, eventual, noi trăsături ale caracterului său. Dar principalul este că, cu cât învățăm din ce în ce mai mult despre mediu, cu atât mai clar vedem conexiunile profunde ale informațiilor cu lumea obiectivă.

Din revista „Computerra”.
informații pentru totdeauna

Ralph Hartley

Ralph. Hartley s-a născut în Ely, Nevada, la 30 noiembrie 1888. A absolvit A.B. de la Universitatea din Utah în 1909. În calitate de bursier Rhodes, a primit un B.A. în 1912 și un B.Sc. în 1913 de la Universitatea Oxford. După ce s-a întors din Anglia, Hartley s-a alăturat Laboratorului de Cercetare al Western Electric Company și a luat parte la crearea unui receptor radio pentru teste transatlantice. În timpul Primului Război Mondial, Hartley a rezolvat problemele care au împiedicat dezvoltarea căutărilor direcționale de tip sunet.

După război, omul de știință a ajuns să se confrunte cu problema transmiterii informațiilor (în special, a sunetului). În această perioadă, el a formulat legea „că cantitatea totală de informații care poate fi transmisă este proporțională cu intervalul de frecvență transmis și cu timpul de transmisie”. Hartley a fost un pionier în domeniul teoriei informației. El a introdus conceptul de „informație” ca o variabilă aleatorie și a fost primul care a încercat să definească o „măsură a informațiilor” (1928: „Transmission of Information”, în Technology of the Bell System. Journal, vol. 7, pp. 535-563). Publicând în aceeași revistă cu Nyquist și, totuși, fără a-l cita pe Nyquist (sau pe oricine altcineva, de altfel), Hartley a dezvoltat noțiunea de informație bazată pe „considerații fizice spre deosebire de psihologice” pentru a fi folosită în studiul comunicațiilor electronice. De fapt, Hartley definește acest concept de bază în consecință. În schimb, el se referă la „acuratețea... informații” și „cantitatea de informații”.

Informația există în transmiterea simbolurilor, simbolurile având „semnificații specifice mesajului partidului”. Când cineva primește informații, fiecare caracter primit îi permite receptorului să „elimine oportunitățile” prin excluderea altor personaje posibile și a semnificațiilor lor asociate. "

Acuratețea informațiilor depinde de ce alte secvențe de caractere ar fi putut fi alese"; măsura acestor alte secvențe oferă o indicație a cantității de informații transferate. Nyquist sugerează apoi să luăm „ca măsură practică a informațiilor logaritmul de secvențe de caractere posibile". Astfel, dacă am obține 4 simboluri diferite care apar cu frecvență egală, ar reprezenta 2 biți. Hartley a primit premii pentru excelență în știință, acest om de știință a fost în Asociația Americană pentru Progresul Științei. Hartley deține mai multe peste 70 de brevete (invenții).Ralph W. L. Hartley a murit la 1 mai 1970 la vârsta de 81 de ani.

Claude Elwood Shannon


Claude Elwood Shannon (1916 - 2001) - inginer și matematician american. Omul care este numit părintele teoriilor moderne ale informației și comunicării.

Într-o după-amiază de toamnă în 1989, un reporter de la Scientific American a intrat într-o casă veche cu vedere la un lac la nord de Boston. Însă proprietarul care l-a cunoscut, un bătrân zvelt de 73 de ani, cu o coamă cenușie luxuriantă și un zâmbet răutăcios, nu a vrut deloc să-și amintească „lucrurile din vremuri trecute” și să discute despre descoperirile sale științifice de acum 30-50 de ani. . Poate că oaspetele s-ar uita mai bine la jucăriile lui?

Fără să aștepte un răspuns și fără să asculte îndemnurile soției sale Betty, proprietarul l-a târât pe jurnalistul uluit în camera alăturată, unde, cu mândria unui băiețel de 10 ani, și-a demonstrat comorile: șapte aparate de șah, un stâlp de circ cu arc și motor pe benzină, un cuțit pliabil cu o sută de lame, un monociclu cu două roți, un manechin de jonglerie, precum și un computer care calculează în sistemul numeric roman. Și nu contează că multe dintre aceste creații ale proprietarului au fost de mult rupte și destul de prăfuite - el este fericit.

Cine este acest bătrân? El a fost cel care, pe când era încă tânăr inginer la Laboratoarele Bell, a scris Magna Carta a Epocii Informației, Teoria Comunicării Matematice, în 1948? A fost numită opera lui „cea mai mare lucrare din analele gândirii tehnice”? Intuiția lui ca descoperitor a fost comparată cu geniul lui Einstein? Da, totul este despre el. Și în aceiași ani 40, a proiectat un disc zburător pe un motor de rachetă și a mers, în același timp jongland, pe un monociclu de-a lungul coridoarelor Bell Labs. Acesta este Claude Elwood Shannon, părintele ciberneticii și teoriei informației, care a declarat cu mândrie: „Întotdeauna mi-am urmat propriile interese, fără să mă gândesc la ce mă vor costa ele sau la valoarea lor pentru lume. Am pierdut mult timp cu totul complet. lucruri inutile”.

Claude Shannon s-a născut în 1916 și a crescut în Gaylord, Michigan. Chiar și în copilărie, Claude s-a familiarizat atât cu detaliile structurilor tehnice, cât și cu generalitatea principiilor matematice. S-a jucat în mod constant cu receptoarele de detectoare și kiturile radio pe care i le aducea tatăl său, un arbitru asistent, și a rezolvat probleme și puzzle-uri matematice care i-au fost furnizate de sora sa mai mare Catherine, care mai târziu a devenit profesor de matematică. Claude s-a îndrăgostit de aceste două lumi, atât de diferite una cu cealaltă - tehnologie și matematică.

Ca student la Universitatea din Michigan, de la care a absolvit în 1936, Claude s-a specializat atât în ​​matematică, cât și în inginerie electrică. Această dualitate de interese și educație a determinat primul succes major pe care Claude Shannon l-a obținut în anii de absolvire la Institutul de Tehnologie din Massachusetts. În disertația sa, susținută în 1940, a demonstrat că funcționarea întrerupătoarelor și releelor ​​din circuitele electrice poate fi reprezentată folosind algebra, inventată la mijlocul secolului al XIX-lea de matematicianul englez George Boole. „S-a întâmplat că nimeni altcineva nu era familiarizat cu ambele domenii în același timp!” - atât de modest Shannon a explicat motivul descoperirii sale.

În zilele noastre, este complet redundant să explici cititorilor unei publicații pe computer ce înseamnă algebra booleană pentru circuitele moderne. În 1941, Claude Shannon, în vârstă de 25 de ani, s-a alăturat laboratoarelor Bell. În anii războiului, el a fost implicat în dezvoltarea sistemelor criptografice, iar mai târziu acest lucru l-a ajutat să descopere metode de codificare cu corectarea erorilor. Și în timpul liber, a început să dezvolte idei care s-au transformat ulterior în teoria informației. Scopul inițial al lui Shannon a fost să îmbunătățească transmiterea informațiilor pe un canal telegraf sau telefonic afectat de zgomotul electric. A ajuns rapid la concluzia că cea mai bună soluție la problemă a fost să împacheteze informațiile mai eficient.

Dar ce este informația? Cum să-i măsori cantitatea? Shannon a trebuit să răspundă la aceste întrebări chiar înainte de a începe să cerceteze lățimea de bandă a canalelor de comunicare. În lucrările sale din 1948-1949, el a determinat cantitatea de informație prin entropie - o cantitate cunoscută în termodinamică și fizica statistică ca măsură a dezordinii unui sistem și a luat ca unitate de informație ceea ce mai târziu a fost numit „bit” , adică alegerea uneia dintre două opțiuni la fel de probabile. Mai târziu lui Shannon i-a plăcut să spună că a fost sfătuit să folosească entropia de către celebrul matematician John von Neumann, care și-a motivat sfatul prin faptul că puțini matematicieni și ingineri știu despre entropie, iar acest lucru îi va oferi lui Shannon un mare avantaj în disputele inevitabile. Este o glumă sau nu, dar cât de greu ne este acum să ne imaginăm că în urmă cu doar o jumătate de secol conceptul de „cantitate de informație” mai avea nevoie de o definiție strictă și că această definiție ar putea stârni un fel de controversă.

Pe baza solidă a definiției sale a cantității de informații, Claude Shannon a dovedit o teoremă uimitoare despre fluxul de canale de comunicare zgomotoase. Această teoremă a fost publicată în întregime în lucrările sale din 1957-61 și acum îi poartă numele. Care este esența teoremei lui Shannon? Orice canal de comunicare zgomotos este caracterizat de rata limita de transfer de informații, numită limită Shannon. La rate de transmisie peste această limită, erorile în informațiile transmise sunt inevitabile. Dar de jos, această limită poate fi abordată în mod arbitrar aproape, oferind o probabilitate de eroare arbitrar mică prin codificarea adecvată a informațiilor pentru orice canal zgomotos.

Aceste idei ale lui Shannon s-au dovedit a fi prea prevestitoare și nu au putut găsi nicio aplicație în anii electronicii cu tuburi lente. Dar în vremea noastră de microcircuite de mare viteză, ele funcționează peste tot unde informațiile sunt stocate, procesate și transmise: într-un computer și un disc laser, într-un aparat de fax și o stație interplanetară. Nu observăm teorema lui Shannon, la fel cum nu observăm aerul.

Pe lângă teoria informației, neobositul Shannon s-a aplicat în multe domenii. El a fost unul dintre primii care a sugerat că mașinile ar putea juca jocuri și învăța pe cont propriu. În 1950, a realizat un mouse mecanic, Tezeu, controlat de la distanță de un circuit electronic complex. Acest șoarece a învățat să găsească o cale de ieșire din labirint. În onoarea invenției sale, IEEE a instituit o competiție internațională „micromouse”, la care participă în continuare mii de studenți ai universităților tehnice. În aceiași ani 50, Shannon a creat o mașină care „citește mințile” atunci când juca „moneda”: o persoană a ghicit „capete” sau „cozi”, iar mașina a ghicit cu o probabilitate de peste 50%, deoarece o persoană nu poate evita niciunul - orice tipare pe care mașina le poate folosi.

Shannon a părăsit Bell Labs în 1956 și a devenit profesor la Massachusetts Institute of Technology în anul următor, de la care s-a pensionat în 1978. Printre studenții săi s-a numărat, în special, Marvin Minsky și alți oameni de știință cunoscuți care au lucrat în domeniul inteligenței artificiale.

Lucrările lui Shannon, care sunt tratate cu evlavie de oamenii de știință, sunt la fel de interesante pentru specialiștii care rezolvă probleme pur aplicate. Shannon a pus, de asemenea, bazele pentru codificarea modernă de corectare a erorilor, care este acum indispensabilă pentru orice unitate de disc sau sistem de streaming video și, probabil, multe produse care nu au văzut încă lumina zilei.

La MIT și la pensie, a fost complet preluat de pasiunea lui de lungă durată pentru jonglerie. Shannon a construit mai multe mașini de jonglare și chiar a creat o teorie generală a jonglarii, care, totuși, nu l-a ajutat să-și bată recordul personal - jonglarea cu patru mingi. Și-a încercat și la poezie, și a dezvoltat, de asemenea, diverse modele ale bursei și le-a testat (după el - cu succes) pe propriile sale acțiuni.

Dar de la începutul anilor 1960, Shannon nu a făcut practic nimic altceva în teoria informației. Părea că s-a săturat de teoria pe care a creat-o în doar 20 de ani. Un astfel de fenomen nu este neobișnuit în lumea științei și, în acest caz, ei spun un cuvânt despre un om de știință: ars. Ca un bec, nu? Mi se pare că o comparație a oamenilor de știință cu stele ar fi mai precisă. Cele mai puternice stele nu strălucesc mult timp, aproximativ o sută de milioane de ani, și își încheie viața creatoare cu o explozie de supernovă, în timpul căreia are loc nucleosinteza: întregul tabel periodic se naște din hidrogen și heliu. Tu și cu mine suntem formați din cenușa acestor stele, iar civilizația noastră este formată și din produsele arderii rapide a celor mai puternice minți. Există stele de al doilea tip: ard uniform și pentru o lungă perioadă de timp, iar de miliarde de ani dau lumină și căldură planetelor locuite (cel puțin una). Cercetătorii de acest tip sunt, de asemenea, foarte necesari de știință și umanitate: ei dau civilizației energia dezvoltării. Iar vedetele din clasa a treia - pitici roșii și maro - strălucesc și se încălzesc puțin, doar pe sub răsuflarea lor. Există destui astfel de oameni de știință, dar este pur și simplu indecent să vorbim despre ei într-un articol despre Shannon.

În 1985, Claude Shannon și soția sa Betty au participat în mod neașteptat la Simpozionul Internațional de Teoria Informației din Brighton, Anglia. Timp de aproape o generație, Shannon nu a apărut la conferințe și la început nimeni nu l-a recunoscut. Apoi participanții la simpozion au început să șoptească: acel modest domn cu părul cărunt de acolo este Claude Elwood Shannon, cel! La banchet, Shannon a spus câteva cuvinte, a jonglat puțin cu trei (vai, doar trei) mingi și apoi a semnat sute de autografe inginerilor și oamenilor de știință uimiți care s-au aliniat în rândul cel mai lung. Cei care stăteau la coadă au spus că au simțit aceleași sentimente pe care le-ar experimenta fizicienii dacă însuși Sir Isaac Newton ar apărea la conferința lor.

Claude Shannon a murit în 2001, într-un azil de bătrâni din Massachusetts, din cauza bolii Alzheimer, la vârsta de 84 de ani.

Pe baza articolului lui Serghei Sery din ziarul „Computer News”, nr. 21, 1998.
Adresa site-ului web:

Claude Shannon o scurtă biografie și fapte interesante din viața unui inginer, criptoanalist și matematician american, părintele erei informației, sunt prezentate în acest articol.

Scurtă biografie Claude Shannon

Claude Elwood Shannon s-a născut pe 30 aprilie 1916 în Petotsky, Michigan. Tatăl său era avocat, iar mama sa preda limbi străine. În 1932, tânărul a absolvit liceul și, în același timp, a studiat acasă. Tatăl lui Claude și-a cumpărat în mod constant fiului său aparate de radio amatori și designeri, contribuind la creativitatea sa tehnică. Iar sora lui mai mare i-a dat cursuri avansate de matematică. Prin urmare, dragostea pentru tehnologie și matematică era evidentă.

În 1932, viitorul om de știință a intrat la Universitatea din Michigan. A absolvit școala în 1936 cu o diplomă de licență în matematică și inginerie electrică. La universitate, a citit lucrările „Calcul logic” și „Analiza matematică a logicii” ale autorului George Boole, care au determinat în mare măsură interesele sale științifice viitoare.

Curând a fost invitat să lucreze la Institutul de Tehnologie din Massachusetts ca asistent de cercetare în laboratorul de inginerie electrică. Shannon a lucrat la modernizarea computerului analogic, analizorul diferenţial Vannevar Bush.

În 1936, Claude a decis să intre în magistratură, iar un an mai târziu a scris o disertație. Pe baza acestuia, publică un articol intitulat „Symbol Analysis of Relays and Switching Circuits”, publicat în 1938 în Journal of the American Institute of Electrical Engineers. Articolul său a interesat comunitatea științifică electrică și în 1939 i s-a acordat Premiul. Alfred Nobel. Fără a-și termina teza de master, Shannon a început să lucreze la lucrarea sa de doctorat în matematică, atingând problemele geneticii. Se numea Algebră pentru Genetică Teoretică.

În 1941, la vârsta de 25 de ani, a început să lucreze în departamentul de matematică al Centrului de Cercetare Bell Laboratories. În acel moment, au început ostilitățile în Europa. America a finanțat cercetarea lui Shannon în criptografie. A fost autorul analizei textelor cifrate folosind metode teoretice informaționale. Un om de știință în 1945 completează un mare raport secret „The Mathematical Theory of Criptography”.

Ce contribuție a avut Claude Shannon în domeniul informaticii?

În cercetările sale, omul de știință a pregătit concepte despre teoria informației. În 1948, Shannon a publicat Teoria matematică a comunicării, în care teoria matematică a apărut ca un receptor de informație și un canal de comunicare pentru transmiterea acesteia. Rămâne doar să traducem totul într-un limbaj mai simplu și să transmitem realizările lor omenirii. Claude Shannon a introdus conceptul de entropie informațională, care denotă o valoare, o unitate de informație. Omul de știință a spus că a fost sfătuit să folosească acest termen de către un matematician. Claude Shannon a creat 6 teoreme conceptuale care stau la baza teoriei sale informaționale:

  • Teorema de cuantificare a informațiilor.
  • Teorema de ambalare rațională pentru codificarea primară.
  • Teorema de potrivire a fluxului de informații cu lățimea de bandă a canalului de comunicație fără interferențe.
  • Teorema potrivirii fluxului de informații cu capacitatea unui canal de comunicare binar cu zgomot.
  • Teorema pentru estimarea debitului unui canal de comunicare continuu.
  • Teorema reconstrucției fără erori a unui semnal continuu.

În 1956, omul de știință încetează să lucreze la Laboratoarele Bell și preia funcția de profesor la două facultăți ale Institutului de Tehnologie din Massachusetts: electrică și matematică.

Când a împlinit 50 de ani, a încetat să predea și s-a dedicat în totalitate hobby-ului său preferat. A creat un monociclu cu 2 șei, roboți care adună cubul Rubik și jongla cu bile, un cuțit pliabil cu multe lame. În 1965 a vizitat URSS. Și recent, Claude Shannon a fost foarte bolnav și a murit în februarie 2001 din cauza bolii Alzheimer într-un azil de bătrâni din Massachusetts.

Claude Shannon fapte interesante

Dragostea pentru știință i-a fost insuflată lui Shannon de bunicul său. Bunicul lui Shannon a fost inventator și fermier. El a inventat mașina de spălat împreună cu multe alte mașini agricole utile.

Ca adolescent el a lucrat ca mesagerîn Western Union.

El pasionat de a cânta la clarinet ascultând muzică și citind poezie.

Shannon s-a căsătorit pe 27 martie 1949 cu Mary Elizabeth Moore Shannon, pe care a cunoscut-o la Bell Labs. A lucrat acolo ca analist. Cuplul a avut trei copii: Andrew Moore, Robert James și Marguerite Katerina.

Claude Shannon obișnuia să-și ducă soția, Betty, și un coleg la Las Vegas în weekend pentru a juca blackjack. Shannon și un prieten au proiectat chiar și primul computer purtabil de „numărare a cardurilor” din lume.

El a fost implicat în dezvoltarea dispozitivelor care detectau aeronavele inamice și ținteau tunurile antiaeriene asupra lor. De asemenea, a creat un sistem criptografic pentru guvernul SUA, asigurând secretul negocierilor dintre Roosevelt și Churchill.

Îi plăcea să joace șah și jongla. Martorii oculari ai vieții sale timpurii la Bell Laboratories l-au amintit că a mers cu bicicleta prin holurile firmei cu un monociclu în timp ce jonglea cu mingi.

A creat un monociclu cu două șei, un cuțit pliabil cu o sută de lame, roboți Rubik’s Cube și un robot care jonglează cu bile.

Shannon, în propriile sale cuvinte, a fost o persoană apolitică și un ateu.

Claude Elwood Shannon este un matematician, inginer electronic și criptograf american premiat, cunoscut drept creatorul teoriei informației.


Eroul nostru a fost cel care a sugerat odată folosirea conceptului de „bit” cunoscut astăzi de toată lumea ca echivalentul celei mai mici unități de informație.

Shannon a devenit celebru ca omul care a dat naștere teoriei informației într-o lucrare de referință pe care a publicat-o în 1948. În plus, i se atribuie și ideea de a crea un computer digital și tehnologii digitale în general, iar în 1937, când Shannon era un student de 21 de ani la Institutul de Tehnologie din Massachusetts, lucrând la obținerea unei diplome de master - a scris apoi o disertație în care a demonstrat că utilizarea algebrei booleene în domeniul electronicii poate construi și rezolva orice logic, numeric.

conexiuni. Articolul scris pe baza tezei sale i-a câștigat Premiul Institutului American de Ingineri Electrici în 1940.

În timpul celui de-al Doilea Război Mondial, Shannon a adus contribuții semnificative în domeniul criptoanalizei, lucrând la apărarea țării, inclusiv la proiectul său fundamental de a încălca coduri și de a oferi telecomunicații securizate.

Shannon s-a născut pe 30 aprilie 1916 în Petotsky, un orășel din Michigan (Petoskey, Michigan) și a crescut în apropiere de Gaylorde (Gaylord, Michigan). Tatăl său a fost unul dintre acei oameni care s-au făcut pe sine. Descendent al primilor coloniști din New Jersey, a fost om de afaceri și judecător. Mama lui Claude a predat engleza și de ceva timp a condus

Prima școală a lui Gaylord. Shannon și-a petrecut majoritatea primilor 16 ani din viață în Gaylord, în 1932 a absolvit o școală locală. Încă din copilărie, i-a plăcut să proiecteze modele mecanice și electrice. Materiile lui preferate erau știința și matematica, iar acasă, în timpul liber, construia modele de avioane, un model de barcă radio controlat și chiar un telegraf fără fir care îl lega la casa unui prieten care locuia la o jumătate de milă de Shannons.

În adolescență, Claude a lucrat ca curier pentru Western Union. Eroul copilăriei sale a fost Thomas Edison, care, după cum sa dovedit mai târziu, a fost și o rudă îndepărtată cu el. Ambii erau descendenți

ami John Ogden (John Ogden), liderul colonial al secolului al XVII-lea și strămoșul cu jumătate de normă al multor oameni de seamă. Ceea ce nu era interesat de Shannon era politica. În plus, era ateu.

În 1932, Claude a devenit student la Universitatea din Michigan, unde unul dintre cursuri l-a introdus în complexitatea algebrei Boole. După ce a absolvit în 1936 cu două diplome de licență în matematică și inginerie electrică, a continuat să studieze la MIT, unde a lucrat la unul dintre primele computere analogice, analizorul diferențial al lui Vannevar Bush - atunci și-a dat seama că conceptele de algebră booleană ar putea fi aplicat la o utilitate mai mare. disertația lui Shannon despre gradul m

Masterul s-a numit „Analiza simbolului releelor ​​și întrerupătoarelor”, iar experții îl consideră una dintre cele mai importante teze de master din secolul XX.

În primăvara anului 1940, Shannon și-a luat doctoratul în matematică la MIT cu teza „Algebra pentru genetică teoretică”, iar în următorii 19 ani, din 1941 până în 1956, a predat la Universitatea din Michigan și a lucrat la Bell Labs, unde interesul său a stârnit sistemele de protecție împotriva incendiilor.și criptografie (care este ceea ce a făcut în timpul celui de-al Doilea Război Mondial).

La Bell Labs, Shannon și-a întâlnit viitoarea soție, Betty Shannon, care era analist numeric. S-au căsătorit în 1949. Shannon s-a întors la MIT în 1956,

unde i s-a oferit un scaun și a lucrat acolo timp de 22 de ani.

Printre hobby-urile sale s-au numărat jongleria, mersul pe monociclu și șahul. El a inventat o mare varietate de gadget-uri distractive, inclusiv discuri zburătoare alimentate de rachete, o „lăcustă” motorizată și un tub care aruncă flăcări pentru un târg de știință. El este, de asemenea, creditat, alături de Edward O. Thorp, inventatorul primului computer portabil - au folosit acest dispozitiv pentru a crește șansele de a câștiga la ruletă, iar incursiunile lor în Las Vegas au fost foarte reușite.

Shannon și-a petrecut ultimii ani într-un azil de bătrâni suferind de boala Alzheimer. S-a stins din viață pe 24 februarie 2001.