Upcoming events update
[mp-talk.git] / slides.wiki
1 == Wstęp ==
2
3 ==== Wstęp ====
4 * Zasada nieozanczoności w analizie sygnałów
5
6 * Klasyczne metody analizy czas-częstość
7
8 * Algorytm Adaptatywny Matching Pursuit
9
10 * Założenia i implementacja normy $l_2$ i $l_1$ w MP
11
12 ==== Plan wykładu ====
13
14 \tableofcontents
15
16 == Zasada nieozanczoności ==
17
18 ==== Plan wykładu ====
19
20 \tableofcontents[currentsection]
21
22 ==== Zasada nieoznaczoności w mechanice kwantowej ====
23 Zasada nieoznaczoności (Heisenberga) w mechanice kwantowej nie opisuje
24 granic dokładności pomiarów, lecz fakt, że cząstka ,,nie może
25 jednocześnie'' mieć dobrze określonych np. pędu i położenia:
26
27 $$\Delta x \Delta p_x \geq h/2\pi$$
28
29 gdzie $\Delta$ odpowiada wariancji rozkładu prawdopodobieństwa wokół
30 średniej.
31
32 Podobnie w analizie sygnałów.
33
34
35 === Tłumaczenie formalne ===
36
37 ==== Plan wykładu ====
38
39 \tableofcontents[currentsection,currentsubsection]
40
41 ==== Tłumaczenie formalne ====
42 Iloczyn wariancji w czasie $\sigma_t^2$ i w częstości
43 kołowej $\sigma_\omega^2$ dla funkcji $s\in
44 L^2(\mathbb{R})$ jest nie mniejszy niż $\frac{1}{4}$
45 $$\sigma^2_t \sigma^2_\omega \ge \frac{1}{4}$$ 
46
47 gdzie: 
48
49 $$ \sigma^2_t = \frac{1}{\|s(t)\|^2} \int_{-\infty}^{\infty}(t-u)^2|s(t)|^2 dt $$ 
50 $$ \sigma^2_\omega = \frac{1}{2\pi \|s(t)\|^2} \int_{-\infty}^{\infty}(\omega-\xi)^2|\hat{s}(\omega)|^2 d\omega $$ 
51
52
53 ==== Tłumaczenie formalne cd ====
54 gdzie: 
55 $$u = \frac{1}{\|s(t)\|^2} \int_{-\infty}^{\infty} t |s(t)|^2 dt$$
56 $$ \xi = \frac{1}{2\pi\|s(t)\|^2}
57 \int_{-\infty}^{\infty} \omega |\hat{s}(\omega)|^2 d\omega$$
58
59 Dla częstości $f=\frac{1}{T}$ mamy:
60 $$
61 \sigma^2_t \sigma^2_f \ge \frac{1}{16\pi^2}
62 $$
63
64 === Tłumaczenie intuicyjne ===
65
66 ==== Plan wykładu ====
67
68 \tableofcontents[currentsection,currentsubsection]
69
70
71 ==== Tłumaczenie intuicyjne ====
72 <[figure]
73 <<<images/zasada1.png, scale=0.12>>>
74 [figure]>
75 W miarę wzrostu czasu obserwacji spada dokładność jego wyznaczania, przy jego skracaniu spada dokładność wyznaczania częstości.
76
77
78 ==== Tłumaczenie intuicyjne cd. ====
79 <[figure]
80 <<<images/zasada2.jpg, scale=0.6>>>
81 [figure]>
82
83 Długi sinus (na górze) ma dobrze określoną częstość, ale nie możemy wiele powiedzieć o jego położeniu w czasie (ciągła linia). Gdy zawężamy (określamy) przedział czasu, w którym sygnał występuje (dolne wykresy), coraz trudniej mówić o częstości.
84
85 == Klasyczne metody analizy czas-częstość ==
86
87 ==== Plan wykładu ====
88
89 \tableofcontents[currentsection]
90
91 === Transformata Wignera-de Ville'a ===
92
93 ==== Plan wykładu ====
94
95 \tableofcontents[currentsection,currentsubsection]
96
97 ==== Transformata Wignera-de Ville'a ====
98 Dla sygnałów niestacjonarnych moc widmowa nie musi być stała w czasie,
99 gdyż zawartość częstości może się zmieniać. Analiza tego typu sytuacji 
100 wymaga śledzenia zmian gęstości energii sygnału jednocześnie w czasie i częstości.
101 Pierwszym pomysłem będzie usunięcie ze wzoru na moc widmową w twierdzeniu Wienera-Chinczyna:
102
103 $$\int e^{-i\omega \tau} \left( \int f(t) f(t+\tau) dt \right) d\tau$$
104
105 Otrzymamy funkcję zależną od czasu i częstości; transformatę Wignera-de~Ville'a:
106 $$\mathcal{W}_s(t, \omega)=\int s \bigl (t + \frac{\tau}{2} \bigr)\;  
107 \overline{ s\bigl(t- \frac{\tau}{2} \bigr )\; } e^{- i \omega \tau } d \tau  
108 $$
109
110 ==== Transformata Wignera-de Ville'a  cd.====
111 $$\mathcal{W}_s(t, \omega)=\int s \bigl (t + \frac{\tau}{2} \bigr)\;  
112 \overline{ s\bigl(t- \frac{\tau}{2} \bigr )\; } e^{- i \omega \tau } d \tau  
113 $$
114
115 <[block]{Zalety}
116 * zachowuje energię sygnału, 
117 * wycałkowana po czasie $\mathcal{W}_s$ daje kwadrat modułu transformaty Fouriera; $|s(\omega)|^2$
118 * wycałkowana po częstości; $|s(t)|^2$
119 [block]>
120 <[block]{Wady}
121 * może być ujemna
122 * zawiera ,,wyrazy mieszane''
123 [block]>
124 %==== Przesunięcie w czasie i częstości ====
125 %Transformata Wignera-de Ville'a:
126
127 %* zachowuje przesunięcia w czasie i w częstości
128 %$$y(t) = x(t-t_0) \Rightarrow W_y(t,f) = W_x(t-t_0,f)$$
129 %$$y(t) = x(t)e^{i 2 \pi f_0 t} \Rightarrow W_y(t,f) = W_x(t,f-f_0)$$
130 %* zachowuje skalowania
131 %$$y(t)=\sqrt{k}x(kt) \Rightarrow W_y(t,f) = W_x(kt, f/k)$$
132
133
134 ==== Przykład ====
135 <[figure]
136 <<<images/wv_1.png, scale=0.5>>>
137 [figure]>
138
139 ==== Wyrazy mieszane ====
140 <[block]{Ograniczenie}
141 Problem ten występuje we wszystkich kwadratowych
142 reprezentacjach energii sygnału w przestrzeni czas-częstość; 
143 w transformacie Wignera efekt ten jest najbardziej widoczny.
144 [block]>
145
146 Zgodnie ze wzorem na kwadrat sumy: 
147 $$(a+b)^2=a^2+b^2+2ab$$
148 Obliczając kwadratową transformatę sygnału złożonego z sumy elementów $a$ i $b$,
149 otrzymujemy reprezentację występujących w sygnale składników $a$ i $b$
150 oraz wyraz mieszany $2ab$, który może pojawić się w takim rejonie
151 przestrzeni czas-częstość, że w odpowiadającym mu przedziale 
152 czasu w sygnale brak jest jakiejkolwiek aktywności.
153
154 ==== Wyrazy mieszane - ilustracja ====
155
156 <[figure]
157 <<<images/wv_2.png, scale=0.27>>>
158 [figure]>
159
160
161 ==== Wyrazy mieszane - uśrednianie ====
162 * Dla zminimalizowania tego efektu możemy wykorzystać spostrzeżenie, że wyrazy mieszane zwykle silnie oscylują, więc lokalne uśrednienie rozkładu (po czasie i częstości) powinno zmniejszyć ich wkład. 
163
164 * Różne realizacje tego uśredniania tworzą bogatą klasę rozkładów o zredukowanych interferencjach (ang.  ,,reduced interference distributions, RID'' ), z których każdy może dawać lepsze od innych rezultaty dla pewnej klasy sygnałów.
165
166 * W każdym przypadku mamy im silniejsze uśrednianie tym gorsza rozdzielczość.
167
168 ==== Wyrazy mieszane - uśrednianie ====
169 <[figure]
170 <<<images/wv_3.png, scale=0.27>>>
171 [figure]>
172
173 === Spektrogram ===
174
175 ==== Plan wykładu ====
176
177 \tableofcontents[currentsection,currentsubsection]
178
179
180
181 ==== Spektrogram -- oknowana transformata Fouriera ====
182 Przepis na krótkoczasową transformatę Fouriera
183 (,,Short-Time Fourier Transform, STFT'' ) polega na wycinaniu kolejnych odcinków sygnału
184 z pomocą okna $g(t)$ ($\|g\|=1$) i obliczaniu ich transformaty Fouriera. Inaczej można to opisać jako iloczyny
185 skalarne sygnału z oknem $g$ modulowanym częstością $\xi$:
186 $$c_{\xi, t_0} = \int s(t) g(t-t_0) e^{i\xi t} dt$$
187
188 Moduł współczynnika $c_{\xi, t_0}$ mówi o zawartości energii sygnału $s(t)$ w okolicy częstości $\xi$ i czasu $t_0$.
189
190 ==== Spektrogram -- dekompozycja sygnału ====
191 <[figure]
192 <<<images/spec_0.jpg, scale=1>>>
193 [figure]>
194
195 ==== Spektrogram -- dekompozycja sygnału ====
196 <[figure]
197 <<<images/stft_atom.png, scale=0.3>>>
198 [figure]>
199
200
201
202 ==== Spektrogram -- przykład ====
203 <[figure]
204 <<<images/spec_1.png, scale=0.27>>>
205 [figure]>
206
207 Co z wyrazami mieszanymi?
208
209 ==== Wyrazy mieszane ====
210 Spektrogram jest reprezentacją kwadratową. Spektrogram sumy sygnałów nie jest sumą spektrogramów sygnałów składowych, jest tam jeszcze coś: 
211 <[figure]
212 <<<images/spec_2.png, scale=0.25>>>
213 [figure]>
214 %Spektrogramy sygnału będącego sumą dwóch funkcji Gabora o częstościach różniących się o 2 Hz i położeniach różniących się o wielokrotności 0,1 s.
215
216 === Ciągła transformata falkowa ===
217
218 ==== Plan wykładu ====
219
220 \tableofcontents[currentsection,currentsubsection]
221
222 ==== Ciągła transformata falkowa ====
223 Ciągła transformacja falkowa (ang. ,,Continuous Wavelet Transform, CWT'') dana jest wzorem:
224 $$P_x(t,a;\Psi)= \int_{-\infty}^{\infty}{x(s)\Psi^*_{t,a}(s) ds}$$
225 gdzie
226 $$ \Psi_{t,a}(s) = \frac{1}{\sqrt{|a|}} \Psi\left(\frac{s-t}{a}\right)$$
227 Gdzie $a$ jest skalą. Od falki $\Psi$ wymagamy żeby miała średnią $0$.
228
229 Transformację tę można interpretować jako rzutowanie sygnału na kolejne wersje falki $\Psi$ przesunięte o $t$ i przeskalowane o $a$. 
230
231 ==== Falki ====
232 Falka to funkcja $\psi \in L^2(\mathbb{R})$ o zerowej średniej:
233 $$\int_{-\infty}^{\infty}\psi(t) dt = 0$$
234
235 Reprezentacja konstruowana jest ze ,,współczynników falkowych'';
236 iloczynów skalarnych sygnału ze znormalizowanymi
237 ($\|\psi\|=1$) funkcjami generowanymi jako przesunięcia i
238 rozciągnięcia falki $\psi$: 
239 $$c_{s,u} = \langle s \psi_{s,u}\rangle = \int_{-\infty}^{\infty} s(t)
240 \psi (\frac{t-u}{s}) dt$$
241
242 Transformacja odwrotna istnieje, jeśli zbiór falek
243 $\left\{\psi_i\right\}_{i\in I}$ tworzy ramę
244 (ang. ,,frame''): 
245 $$\forall_f \exists_{A>0, B<\infty} A\|s\|^2 \le \sum_{i\in I} |\langle\psi_i, s\rangle|^2 \le B\|s\|^2$$
246
247
248 ==== Ciągła transformata falkowa cd. ====
249
250 Inne spojrzenie na transformację falkową uwidacznia się gdy połączymy dwa powyższe wzory:
251 $$P_x(t,a;\Psi)=  \frac{1}{\sqrt{|a|}}\int_{-\infty}^{\infty}{x(s) \Psi^*\left(\frac{s-t}{a}\right) ds}$$
252 Tu widać, że dla ustalonej skali $a$ transformacja falkowa jest splotem sygnału z falką o skali $a$.
253
254
255 Ten sposób myślenia o transformacji falkowej umożliwia zastosowanie szybkiego algorytmu obliczeniowego bazującego na tym, że splot w dziedzinie czasu odpowiada mnożeniu w dziedzinie częstości.
256
257
258 ==== Skalogram ====
259 Podobnie jak dla STFT i spektrogramu, możemy dla CWT wprowadzić pojęcie skalogramu, będącego estymatą gęstości energii w przestrzeni czas-skala.
260 $$S_x(t,a;\Psi)=\left| P_x(t,a;\Psi)\right|^2$$
261
262 Dla falek, które są dobrze skupione wokół częstości $f$ dla skali $a=1$ można wprowadzić utożsamienie $f=\frac{f_0}{a}$.
263
264 Utożsamienie to pozwala przekształcić reprezentację czas-skala w reprezentację czas-częstość:
265 $$S_x(t,f;\Psi)=\left| P_x(t,f_0/f;\Psi)\right|^2$$
266
267 ==== Skalogram -- dekompozycja sygnału ====
268 <[figure]
269 <<<images/cwt_1.png, scale=0.5>>>
270 [figure]>
271
272
273 ==== Skalogram -- przykład ====
274 <[figure]
275 <<<images/cwt_2.png, scale=0.27>>>
276 [figure]>
277 Co z wyrazami mieszanymi?
278
279 ==== Skalogram -- wyrazy mieszane ====
280 <[figure]
281 <<<images/cwt_3.png, scale=0.27>>>
282 [figure]>
283
284 == Matching Pursuit ==
285
286 ==== Plan wykładu ====
287
288 \tableofcontents[currentsection]
289
290 === Założenia ogólne ===
291
292 ==== Plan wykładu ====
293
294 \tableofcontents[currentsection,currentsubsection]
295
296 ==== Założenia ogólne ====
297 * Dopasowanie kroczące (ang. matching pursuit, MP) jest procedurą polegającą na rozłożeniu sygnału na funkcje składowe pochodzące z określonego zbioru funkcji (słownika).
298 * Słowniki wykorzystywane w metodach czas-częstość często składają się z funkcji Gabora tj. funkcji sinus modulowanej funkcją Gaussa. 
299 * MP jest algorytmem iteracyjnym. 
300 * W pierwszym kroku dopasowywana jest funkcja spełniająca '''określone~założenia'''.
301 * W każdym następnym kroku funkcja jest analogicznie dopasowywana do residuum sygnału, pozostałego po odjęciu wyniku poprzedniej iteracji.
302
303 ==== Dyskretny słownik funkcji Gabora ====
304 Funkcję (atom) słownika czasowo-częstościowego  
305 można wyrazić jako translację ($u$), rozciągnięcie ($s$) i modulację   
306 ($\omega$) funkcji okna $g(t) \in L^2(R)$  
307 $$  
308 g_\gamma (t) = \frac {1} {\sqrt{s}} g \left ( \frac {t - u} {s} \right )  
309 e^{i \omega t}  
310 $$ 
311 Optymalną lokalizację w przestrzeni czas-częstość otrzymujemy dla Gaussowskiej  
312 obwiedni $g(t)$, co w przypadku analizy sygnałów o wartościach rzeczywistych  
313 daje słownik rzeczywistych atomów Gabora:  
314 $$
315 g_{\gamma(t)}=K(\gamma,\phi ) e^{-\pi\left( \frac{t-u}{s}\right)^2}  
316 \sin(\omega (t-u)+\phi ))  
317 $$
318 $K(\gamma, \phi)$ zapewnia normalizację $||g_{\gamma,\phi}||=1$.
319
320 ==== Dyskretny słownik funkcji Gabora ====
321 Pomimo, że analizujemy sygnały dyskretne,
322 parametry dopasowywanych funkcji mogą przyjmować wartości z
323 przedziałów ciągłych.  W praktyce korzystamy z relatywnie małych
324 podzbiorów przestrzeni parametrów:
325 $$\gamma~=~\{u,~s,~\omega\}$$
326
327 Faza $\Phi$ jest zwykle przedmiotem osobnej optymalizacji dla każdej dopasowywanej funkcji.
328
329 === Definicja normy ===
330
331 ==== Plan wykładu ====
332
333 \tableofcontents[currentsection,currentsubsection]
334 ==== Definicja normy ====
335 Odwzorowanie $\|\cdot\|\colon X \to [0, \infty)$ spełniające, dla wszystkich elementów $x,y$ przestrzeni $X$ i skalarów $\alpha$ z ciała $K$, warunki:
336
337 * niezdegenerowania, $\|x\| = 0 \Rightarrow x = 0$
338 * dodatniej jednorodności, $\|\alpha x\| = |\alpha| \|x\|$
339 * nierówności trójkąta (podaddytywności), $\|x + y\| \leqslant \|x\| + \|y\|$
340
341 nazywa się '''normą''' (w przestrzeni $X$), a przestrzeń $X$ z określoną normą $\|\cdot\|$ nazywa się '''przestrzenią unormowaną'''. 
342
343 === Norma w algorytmie MP ===
344
345 ==== Plan wykładu ====
346
347 \tableofcontents[currentsection,currentsubsection]
348
349 ==== Norma w algorytmie MP ====
350 * Norma w algorytmie MP używana jest do określenia elementu słownika, który należy użyć do tłumaczenia sygnału w pierwszej kolejności.
351 * Dobór odpowiedniej normy znacząco wpływa na skuteczność algorytmu.
352 * Rożne normy sprawdzają się w różnych klasach sygnałów.
353
354
355 === Norma $l_2$ ===
356
357 ==== Plan wykładu ====
358
359 \tableofcontents[currentsection,currentsubsection]
360
361 ==== Norma $l_2$ ====
362 Norma $l_2$ zwana metryką euklidesową w przestrzeni współrzędnych rzeczywistych dana jest wzorem:
363
364 $$\|\mathbf x\| = \sqrt{\mathbf x \cdot \mathbf x} = \left(\sum_{i=1}^n x_i^2\right)^{1/2}$$
365
366 Metryka euklidesowa jest również przypadkiem szczególnym (z parametrem $2$) szerszej klasy metryk wyznaczanych przez tzw. ,,metrykę Minkowskiego''.
367
368
369
370 ==== Norma $l_2$ w algorytmie MP ====
371 Niech dany będzie zbiór funkcji (słownik) $D = \{g_1, g_2,
372 \ldots, g_n\}$ takich, że $||g_i||=1$. Algorytm Matching Pursuit (MP) jest procedurą iteracyjną. W pierwszym
373 kroku wybierana jest funkcja $g_{\gamma_0}$ dająca
374 największy iloczyn skalarny z sygnałem $s$, po czym w
375 każdym następnym kroku funkcja $g_{\gamma_n}$ jest
376 analogicznie dopasowywana do residuum sygnału $R^n s$,
377 pozostałego po odjęciu wyniku poprzedniej iteracji:
378   
379 $$  
380 \left \{
381 \begin{array}{l}  
382 R^0s=s \\
383 R^ns=\langle R^ns,g_{\gamma_n} \rangle g_{\gamma_n}+R^{n+1}s\\
384 g_{\gamma_n}=\arg \max |\langle R^ns, g_{\gamma_i}\rangle |
385 \end{array}
386 \right .
387 $$
388
389 ==== Norma $l_2$ w algorytmie MP cd. ====
390 Ortogonalność $R^{n+1} s$ i $g_{\gamma_n}$ w każdym kroku procedury
391 implikuje zachowanie energii.
392
393 %$$||s||^2 =\sum_{n=0}^{m-1} {\|\langle R^n s, \g_{\gamma_n}\rangle} /|^2 + ||R^m s||^2$$
394 Jeśli słownik $D$ jest kompletny, procedura zbiega do~$f$:
395
396 $$
397 s=\sum_{n=0}^\infty {\langle R^n s,\; g_{\gamma_n}\rangle g_{\gamma_n} }
398 $$
399
400
401 === Norma $l_1$ ===
402
403 ==== Plan wykładu ====
404
405 \tableofcontents[currentsection,currentsubsection]
406
407 ==== Norma $l_1$ ====
408 '''Metryka Manhattan, taksówkowa, miejska, wielkomiejska''' – odległość dwóch punktów w tej metryce to suma wartości bezwzględnych różnic ich współrzędnych.
409
410
411 W przestrzeni $\mathbb R^n$ metryka ta dana jest wzorem
412 $$d_m(\mathbf x, \mathbf y) = \sum^n |x_k - y_k|$$
413
414 Wyobraźmy sobie, że z jakichś powodów (kwadratowa sieć ulic przypominająca plan Manhattanu) możemy poruszać się jedynie w kierunkach wschód-zachód oraz północ-południe. Wtedy droga, jaką będziemy przebywać z jednego punktu do drugiego, wyniesie właśnie tyle, ile mówi o niej metryka miejska. W szczególności, jeśli $n = 1$, to
415 $$d_m(\mathbf x, \mathbf y) = |x-y|$$
416
417 ==== Norma $l_1$ w algorytmie MP ====
418
419 Niech dany będzie zbiór funkcji (słownik) $D = \{g_1, g_2,
420 \ldots, g_n\}$ takich, że $||g_i||=1$. W każdym kroku algorytmu obliczane są iloczyny skalarne wszystkich funkcji
421  $g_{\gamma}$ z aktualnym residuum sygnału. Następnie wynik każdego takiego
422 iloczynu jest kolejno odejmowany od residuum. Dekomponowany sygnał jest
423 dyskretny, więc w wyniku otrzymywany jest ciąg liczb, będących różnicami
424 w kolejnych próbkach sygnału. Ciąg ten jest sumowany. W danym kroku algorytmu
425 wybierana jest ta funkcja ze słownika, dla której tak uzyskana suma jest najmniejsza.
426  
427 $$  
428 \left \{
429 \begin{array}{l}  
430 R^0s=s \\
431 R^ns=\langle R^ns,g_{\gamma_n} \rangle g_{\gamma_n}+R^{n+1}s\\
432 g_{\gamma_n}=\arg \min | R^ns - g_{\gamma_i} |
433 \end{array}
434 \right .
435 $$
436
437
438
439 === Porównanie ===
440
441 ==== Plan wykładu ====
442
443 \tableofcontents[currentsection,currentsubsection]
444
445 ==== $l_2$ ====
446 <[figure]
447 <<<images/l2_2.png, scale=0.51>>>
448 [figure]>
449
450 ==== $l_2$ ====
451 <[figure]
452 <<<images/l2.png, scale=0.38>>>
453 [figure]>
454
455 %==== Analizowany sygnał ====
456 %<[figure]
457 %<<<images/l2.png, scale=0.05>>>
458 %[figure]>
459
460
461 ==== $l_1$ ====
462 <[figure]
463 <<<images/l1.png, scale=0.35>>>
464 [figure]>
465
466 ==== Wrzeciona snu ====
467 <[figure]
468 <<<images/l1_l2.png, scale=0.3>>>
469 [figure]>
470
471
472 === Implementacja ===
473
474 ==== Plan wykładu ====
475
476 \tableofcontents[currentsection,currentsubsection]
477
478 ==== Wielozmienny algorytm MP (MMP) ====
479 W sygnale wielozmiennym (ang. multivariate) pojedynczą próbkę zastępuje wektor wartości opisujących stan układu w danej chwili, jak jak na przykład potencjał EEG mierzony z wielu elektrod jednocześnie. Jeśli chcemy w takich sygnałach szukać cech wspólnych, na przykład tych samych struktur czas-częstość występujących w sąsiednich kanałach zapisu EEG, musimy ustalić więzy określające które z parametrów funkcji dopasowywanych w każdej iteracji muszą być jednakowe (np. położenie w czasie i szerokość), a które mogą się się różnić w sąsiednich kanałach (w sposób oczywisty różne będą amplitudy, ale może się też zmieniać np. faza).
480
481 ==== Wielozmienny algorytm MP (MMP) ====
482 <[figure]
483 <<<images/c3_p4.png, scale=0.25>>>
484 [figure]>
485
486 ==== Złożoność obliczeniowa ====
487 Wielkość słownika zawierającego funkcję Gabora zależy m. in. od:
488 * położenia
489 * długości sygnału
490 * skali
491 * fazy
492 Wielkość takiej przestrzeni parametrów może wynosić nawet $N^4$, co dla 20 sekundowego sygnału daje $4096^3 \cdot 4 = 274$TB pamięci.
493
494
495 === Podsumowanie ===
496
497 ==== Plan wykładu ====
498
499 \tableofcontents[currentsection,currentsubsection]
500
501 ==== Podsumowanie -- zalety oraz wady algorytmu MP ====
502 <[block]{Zalety}
503 * Lepsze odwzorowanie słabych struktur
504 * Brak wyrazów mieszanych
505 * Dokładna informacja na temat składowych sygnału
506 * Dla niektórych klas sygnałów niezastąpiony
507 [block]>
508
509 <[block]{Wady}
510 * Trudny w implementacji
511 * Złożony obliczeniowo
512 * Zależny od doboru normy
513 * Zależny od doboru słownika
514 * Wymagający dużej wiedzy a priori na temat sygnału
515 [block]>
516
517
This page took 0.033814 seconds and 4 git commands to generate.