Nosičom je sínusoida. Amplitúdová modulácia – AM Používa sa pre rozhlasové vysielanie na: dlhých, stredných, krátkych vlnách. Výhody: jednoduchá modulácia, jednoduchá demodulácia, dobré šírenie. Nevýhody: […]
Kategória: Technológie
Triedenie modulácií
Základné typy modulácie podľa tabuľky Analógová modulácia so sínusovým nosičom AM, SSB, FM, PM. Impulzné modulácie PAM, PFM, PPM, PDM. Numerická modulácia ASK, FSK, PSK. […]
Fourierov rad a Fourierov integrál
Originálom budeme nazývať časovú funkciu g(t)g(t)g(t), obrazom je matematický predpis, ktorý nás informuje o veľkosti amplitúdy a fáze harmonických zložiek, teda o spektre. originál udáva […]
Zložený signál
Zložením dvoch signálov vzniká signál, ktorý môže meniť veľkosť aj kmitočet. Výsledný signál nebude harmonický, pokiaľ: ω1≠ω2\omega_1 \neq \omega_2ω1=ω2 Ak sa zložky vhodne kombinujú, výsledný […]
Parametre zvuku
Poznáme tri základné parametre zvuku: hlasitosť – intenzita zvuku, tón – frekvencia zvuku, zafarbenie – harmonickosť zvuku.
Harmonický signál
Je odvodený od otáčania vektora v komplexnej rovine. Ľubovoľnú polohu vektora na jednotkovej kružnici možno definovať súradnicami: x+jyx + jyx+jy, kde x=cosαx = \cos \alphax=cosα, […]
Spektrálna analýza signálov
Determinovaný signál V závislosti od času ttt je definovaný predpisom g(t)g(t)g(t). Signály nás budú zaujímať z pohľadu funkcie času a z pohľadu ich spektrálnej analýzy. […]
Entropia zdroja
Je stredné množstvo informácie pripadajúce na jeden signál zdroja informácie. Definuje sa ako stredná hodnota I(xi)I(x_i)I(xi): H(X)=−∑p(xi)logp(xi)H(X) = – \sum p(x_i)\log p(x_i)H(X)=−∑p(xi)logp(xi) Definíciu H(X)H(X)H(X) možno […]
Podmienená a vzájomná informácia
Ak I(xi)I(x_i)I(xi) je množstvo informácie, ktoré potrebujeme získať, aby sme určili výskyt konkrétneho xix_ixi zo súboru XXX, a prijmeme yiy_iyi, potom podmienenú pravdepodobnosť P(xi∣yi)P(x_i|y_i)P(xi∣yi) nazývame […]
Kódované sústavy
Kódované sústavy delíme do dvoch kategórií: Spojité Zobrazenie z nekonečnej množiny informácií do nekonečnej množiny signálov. Príklady: AM, FM. Diskrétne Zobrazenie z konečnej množiny informácie […]
Shannonova veta o kódovaní
Existuje číslo, ktoré sa nazýva kapacitou kanála, také, že ak je väčšie ako entropia zdroja, možno použitím vhodného kódovania prenášať správy s ľubovoľne malou pravdepodobnosťou […]
Kódovanie
Kódovanie je proces priraďovania kombinácií prvkov množiny signálov X={x1,…,xn}X = \{x_1, …, x_n\}X={x1,…,xn} množine správ I={i1,…,in}I = \{i_1, …, i_n\}I={i1,…,in} Kód Kódom nazývame pravidlo jednoznačne […]
Základná úloha pri prenose správ
Základnou úlohou pri prenose správ je: prenášať po šumových kanáloch rýchlo, ekonomicky, pri zachovaní požadovanej správnosti prenosu.
Možnosti definovania signálov
Amplitúdová vzdialenosť Ak nás zaujíma amplitúda v určitom okamihu, môžeme definovať vzdialenosť: d(x,y)=∣x−y∣d(x,y) = |x-y|d(x,y)=∣x−y∣ kde x,yx, yx,y sú amplitúdy signálov. Hammingova vzdialenosť V signálnom […]
Prenos informácie a signál
Prenos informácie je realizovaný prenosom signálu odpovedajúceho danej prenosovej sústave. Matematický popis signálu býva často zložitý, napríklad: výstup z mikrofónu, náhodná postupnosť signálov, telegrafný signál. […]
Spôsoby pripojenia
Simplexný prenos Jednosmerný prenos. Duplexný prenos Obojsmerný prenos s možnosťou súčasného prenosu oboma smermi. Poloduplexný prenos Obojsmerný prenos s možnosťou prenosu iba jedným smerom v […]
Príklad s 27 guličkami
Máme 27 guličiek rovnakej veľkosti a farby, pričom 26 má rovnakú hmotnosť a 1 je ťažšia. Máme nájsť túto jednu guličku pomocou dvojramenných váh a […]
Entropia pre spojité signály
Pre spojité signály sa zavádza analóg definície entropie v spojitom priestore.
Shannonova entropia
Ukazuje sa, že funkcia HHH je jediná funkcia Shannonovho typu: H(P)=−∑P(Ai)logP(Ai)H(P) = – \sum P(A_i)\log P(A_i)H(P)=−∑P(Ai)logP(Ai) V texte sa uvádzajú lemy vedúce k tomuto záveru, […]
Axiomatická definícia entropie
Niektorí autori nezavádzajú pojem j(A)j(A)j(A) pre jednotlivý jav AAA, ale chcú pokusu P={A1,…,An}P = \{A_1, …, A_n\}P={A1,…,An} priamo priradiť entropiu H(P)=H(p1,…,pn)H(P) = H(p_1, …, p_n)H(P)=H(p1,…,pn) […]
Entropia ako stredná hodnota náhodnej premennej
Ak máme pravdepodobnostný priestor (X,e,j)(X, e, j)(X,e,j) a informáciu: j(A)=−logP(A)j(A) = – \log P(A)j(A)=−logP(A) môžeme uvažovať o entropii pokusu P={A1,…,An}P = \{A_1, …, A_n\}P={A1,…,An} s […]
Entropia
Entropia je stredná hodnota množstva informácie zo štatistického hľadiska. Je to: miera informačnej výdatnosti pokusu, miera neurčitosti pokusu. Hodnota j(A)j(A)j(A) predstavuje množstvo informácie, ktoré získame, […]
Vlastnosti miery informácie
Miera informácie nie je aditívna. Príklad: EEE – pri hode kockou padla párna hodnota, FFF – pri hode kockou padla hodnota 3. Potom: j(E∪F)<j(E)j(E \cup […]
Definícia miery informácie
Pri definovaní miery informácie sa pracuje s množinami javov a s množinovými funkciami. Príklad: X={{1},{2},…,{6}}X = \{\{1\}, \{2\}, …, \{6\}\}X={{1},{2},…,{6}} predstavujú elementárne javy pri hode […]