Upcoming events update
[mp-talk.git] / slides.wiki
CommitLineData
4118d0c6 1== Wstęp ==
c8e58f5a 2
4118d0c6
KA
3==== Wstęp ====
4* Zasada nieozanczoności w analizie sygnałów
c8e58f5a 5
4118d0c6 6* Klasyczne metody analizy czas-częstość
c8e58f5a
KA
7
8* Algorytm Adaptatywny Matching Pursuit
9
9c9f2138 10* Założenia i implementacja normy $l_2$ i $l_1$ w MP
c8e58f5a
KA
11
12==== Plan wykładu ====
13
14\tableofcontents
15
4118d0c6 16== Zasada nieozanczoności ==
c8e58f5a
KA
17
18==== Plan wykładu ====
19
20\tableofcontents[currentsection]
21
4118d0c6
KA
22==== Zasada nieoznaczoności w mechanice kwantowej ====
23Zasada nieoznaczoności (Heisenberga) w mechanice kwantowej nie opisuje
24granic dokładności pomiarów, lecz fakt, że cząstka ,,nie może
25jednocześnie'' mieć dobrze określonych np. pędu i położenia:
26
27$$\Delta x \Delta p_x \geq h/2\pi$$
28
29gdzie $\Delta$ odpowiada wariancji rozkładu prawdopodobieństwa wokół
30średniej.
31
32Podobnie w analizie sygnałów.
33
34
35=== Tłumaczenie formalne ===
36
37==== Plan wykładu ====
38
39\tableofcontents[currentsection,currentsubsection]
40
41==== Tłumaczenie formalne ====
42Iloczyn wariancji w czasie $\sigma_t^2$ i w częstości
43kołowej $\sigma_\omega^2$ dla funkcji $s\in
44L^2(\mathbb{R})$ jest nie mniejszy niż $\frac{1}{4}$
45$$\sigma^2_t \sigma^2_\omega \ge \frac{1}{4}$$
46
47gdzie:
48
49$$ \sigma^2_t = \frac{1}{\|s(t)\|^2} \int_{-\infty}^{\infty}(t-u)^2|s(t)|^2 dt $$
50$$ \sigma^2_\omega = \frac{1}{2\pi \|s(t)\|^2} \int_{-\infty}^{\infty}(\omega-\xi)^2|\hat{s}(\omega)|^2 d\omega $$
51
52
53==== Tłumaczenie formalne cd ====
54gdzie:
55$$u = \frac{1}{\|s(t)\|^2} \int_{-\infty}^{\infty} t |s(t)|^2 dt$$
56$$ \xi = \frac{1}{2\pi\|s(t)\|^2}
57\int_{-\infty}^{\infty} \omega |\hat{s}(\omega)|^2 d\omega$$
58
59Dla częstości $f=\frac{1}{T}$ mamy:
60$$
61\sigma^2_t \sigma^2_f \ge \frac{1}{16\pi^2}
62$$
63
64=== Tłumaczenie intuicyjne ===
c8e58f5a
KA
65
66==== Plan wykładu ====
67
68\tableofcontents[currentsection,currentsubsection]
69
4118d0c6 70
c8e58f5a 71==== Tłumaczenie intuicyjne ====
4118d0c6
KA
72<[figure]
73<<<images/zasada1.png, scale=0.12>>>
74[figure]>
75W miarę wzrostu czasu obserwacji spada dokładność jego wyznaczania, przy jego skracaniu spada dokładność wyznaczania częstości.
76
77
78==== Tłumaczenie intuicyjne cd. ====
79<[figure]
80<<<images/zasada2.jpg, scale=0.6>>>
81[figure]>
82
83Długi sinus (na górze) ma dobrze określoną częstość, ale nie możemy wiele powiedzieć o jego położeniu w czasie (ciągła linia). Gdy zawężamy (określamy) przedział czasu, w którym sygnał występuje (dolne wykresy), coraz trudniej mówić o częstości.
84
85== Klasyczne metody analizy czas-częstość ==
86
87==== Plan wykładu ====
88
89\tableofcontents[currentsection]
90
91=== Transformata Wignera-de Ville'a ===
92
93==== Plan wykładu ====
94
95\tableofcontents[currentsection,currentsubsection]
96
97==== Transformata Wignera-de Ville'a ====
98Dla sygnałów niestacjonarnych moc widmowa nie musi być stała w czasie,
99gdyż zawartość częstości może się zmieniać. Analiza tego typu sytuacji
100wymaga śledzenia zmian gęstości energii sygnału jednocześnie w czasie i częstości.
101Pierwszym pomysłem będzie usunięcie ze wzoru na moc widmową w twierdzeniu Wienera-Chinczyna:
102
103$$\int e^{-i\omega \tau} \left( \int f(t) f(t+\tau) dt \right) d\tau$$
104
105Otrzymamy funkcję zależną od czasu i częstości; transformatę Wignera-de~Ville'a:
106$$\mathcal{W}_s(t, \omega)=\int s \bigl (t + \frac{\tau}{2} \bigr)\;
107\overline{ s\bigl(t- \frac{\tau}{2} \bigr )\; } e^{- i \omega \tau } d \tau
108$$
109
110==== Transformata Wignera-de Ville'a cd.====
111$$\mathcal{W}_s(t, \omega)=\int s \bigl (t + \frac{\tau}{2} \bigr)\;
112\overline{ s\bigl(t- \frac{\tau}{2} \bigr )\; } e^{- i \omega \tau } d \tau
113$$
114
115<[block]{Zalety}
116* zachowuje energię sygnału,
117* wycałkowana po czasie $\mathcal{W}_s$ daje kwadrat modułu transformaty Fouriera; $|s(\omega)|^2$
118* wycałkowana po częstości; $|s(t)|^2$
119[block]>
120<[block]{Wady}
121* może być ujemna
122* zawiera ,,wyrazy mieszane''
123[block]>
124%==== Przesunięcie w czasie i częstości ====
125%Transformata Wignera-de Ville'a:
126
127%* zachowuje przesunięcia w czasie i w częstości
128%$$y(t) = x(t-t_0) \Rightarrow W_y(t,f) = W_x(t-t_0,f)$$
129%$$y(t) = x(t)e^{i 2 \pi f_0 t} \Rightarrow W_y(t,f) = W_x(t,f-f_0)$$
130%* zachowuje skalowania
131%$$y(t)=\sqrt{k}x(kt) \Rightarrow W_y(t,f) = W_x(kt, f/k)$$
132
133
134==== Przykład ====
135<[figure]
136<<<images/wv_1.png, scale=0.5>>>
137[figure]>
138
139==== Wyrazy mieszane ====
140<[block]{Ograniczenie}
141Problem ten występuje we wszystkich kwadratowych
142reprezentacjach energii sygnału w przestrzeni czas-częstość;
143w transformacie Wignera efekt ten jest najbardziej widoczny.
144[block]>
145
146Zgodnie ze wzorem na kwadrat sumy:
147$$(a+b)^2=a^2+b^2+2ab$$
148Obliczając kwadratową transformatę sygnału złożonego z sumy elementów $a$ i $b$,
149otrzymujemy reprezentację występujących w sygnale składników $a$ i $b$
150oraz wyraz mieszany $2ab$, który może pojawić się w takim rejonie
151przestrzeni czas-częstość, że w odpowiadającym mu przedziale
152czasu w sygnale brak jest jakiejkolwiek aktywności.
153
154==== Wyrazy mieszane - ilustracja ====
155
156<[figure]
157<<<images/wv_2.png, scale=0.27>>>
158[figure]>
159
160
161==== Wyrazy mieszane - uśrednianie ====
162* Dla zminimalizowania tego efektu możemy wykorzystać spostrzeżenie, że wyrazy mieszane zwykle silnie oscylują, więc lokalne uśrednienie rozkładu (po czasie i częstości) powinno zmniejszyć ich wkład.
163
164* Różne realizacje tego uśredniania tworzą bogatą klasę rozkładów o zredukowanych interferencjach (ang. ,,reduced interference distributions, RID'' ), z których każdy może dawać lepsze od innych rezultaty dla pewnej klasy sygnałów.
165
166* W każdym przypadku mamy im silniejsze uśrednianie tym gorsza rozdzielczość.
167
168==== Wyrazy mieszane - uśrednianie ====
169<[figure]
170<<<images/wv_3.png, scale=0.27>>>
171[figure]>
172
173=== Spektrogram ===
174
175==== Plan wykładu ====
176
177\tableofcontents[currentsection,currentsubsection]
178
179
180
181==== Spektrogram -- oknowana transformata Fouriera ====
182Przepis na krótkoczasową transformatę Fouriera
183(,,Short-Time Fourier Transform, STFT'' ) polega na wycinaniu kolejnych odcinków sygnału
184z pomocą okna $g(t)$ ($\|g\|=1$) i obliczaniu ich transformaty Fouriera. Inaczej można to opisać jako iloczyny
185skalarne sygnału z oknem $g$ modulowanym częstością $\xi$:
186$$c_{\xi, t_0} = \int s(t) g(t-t_0) e^{i\xi t} dt$$
187
188Moduł współczynnika $c_{\xi, t_0}$ mówi o zawartości energii sygnału $s(t)$ w okolicy częstości $\xi$ i czasu $t_0$.
189
190==== Spektrogram -- dekompozycja sygnału ====
191<[figure]
192<<<images/spec_0.jpg, scale=1>>>
193[figure]>
194
9c9f2138
KA
195==== Spektrogram -- dekompozycja sygnału ====
196<[figure]
197<<<images/stft_atom.png, scale=0.3>>>
198[figure]>
199
4118d0c6
KA
200
201
202==== Spektrogram -- przykład ====
203<[figure]
204<<<images/spec_1.png, scale=0.27>>>
205[figure]>
206
207Co z wyrazami mieszanymi?
208
209==== Wyrazy mieszane ====
210Spektrogram jest reprezentacją kwadratową. Spektrogram sumy sygnałów nie jest sumą spektrogramów sygnałów składowych, jest tam jeszcze coś:
211<[figure]
212<<<images/spec_2.png, scale=0.25>>>
213[figure]>
214%Spektrogramy sygnału będącego sumą dwóch funkcji Gabora o częstościach różniących się o 2 Hz i położeniach różniących się o wielokrotności 0,1 s.
215
216=== Ciągła transformata falkowa ===
217
218==== Plan wykładu ====
219
220\tableofcontents[currentsection,currentsubsection]
221
222==== Ciągła transformata falkowa ====
9c9f2138 223Ciągła transformacja falkowa (ang. ,,Continuous Wavelet Transform, CWT'') dana jest wzorem:
4118d0c6
KA
224$$P_x(t,a;\Psi)= \int_{-\infty}^{\infty}{x(s)\Psi^*_{t,a}(s) ds}$$
225gdzie
226$$ \Psi_{t,a}(s) = \frac{1}{\sqrt{|a|}} \Psi\left(\frac{s-t}{a}\right)$$
227Gdzie $a$ jest skalą. Od falki $\Psi$ wymagamy żeby miała średnią $0$.
228
229Transformację tę można interpretować jako rzutowanie sygnału na kolejne wersje falki $\Psi$ przesunięte o $t$ i przeskalowane o $a$.
230
231==== Falki ====
232Falka to funkcja $\psi \in L^2(\mathbb{R})$ o zerowej średniej:
233$$\int_{-\infty}^{\infty}\psi(t) dt = 0$$
234
235Reprezentacja konstruowana jest ze ,,współczynników falkowych'';
236iloczynów skalarnych sygnału ze znormalizowanymi
237($\|\psi\|=1$) funkcjami generowanymi jako przesunięcia i
238rozciągnięcia falki $\psi$:
239$$c_{s,u} = \langle s \psi_{s,u}\rangle = \int_{-\infty}^{\infty} s(t)
240\psi (\frac{t-u}{s}) dt$$
241
242Transformacja odwrotna istnieje, jeśli zbiór falek
243$\left\{\psi_i\right\}_{i\in I}$ tworzy ramę
244(ang. ,,frame''):
245$$\forall_f \exists_{A>0, B<\infty} A\|s\|^2 \le \sum_{i\in I} |\langle\psi_i, s\rangle|^2 \le B\|s\|^2$$
246
247
248==== Ciągła transformata falkowa cd. ====
249
250Inne spojrzenie na transformację falkową uwidacznia się gdy połączymy dwa powyższe wzory:
251$$P_x(t,a;\Psi)= \frac{1}{\sqrt{|a|}}\int_{-\infty}^{\infty}{x(s) \Psi^*\left(\frac{s-t}{a}\right) ds}$$
252Tu widać, że dla ustalonej skali $a$ transformacja falkowa jest splotem sygnału z falką o skali $a$.
253
254
255Ten sposób myślenia o transformacji falkowej umożliwia zastosowanie szybkiego algorytmu obliczeniowego bazującego na tym, że splot w dziedzinie czasu odpowiada mnożeniu w dziedzinie częstości.
256
257
258==== Skalogram ====
259Podobnie jak dla STFT i spektrogramu, możemy dla CWT wprowadzić pojęcie skalogramu, będącego estymatą gęstości energii w przestrzeni czas-skala.
260$$S_x(t,a;\Psi)=\left| P_x(t,a;\Psi)\right|^2$$
261
262Dla falek, które są dobrze skupione wokół częstości $f$ dla skali $a=1$ można wprowadzić utożsamienie $f=\frac{f_0}{a}$.
263
264Utożsamienie to pozwala przekształcić reprezentację czas-skala w reprezentację czas-częstość:
265$$S_x(t,f;\Psi)=\left| P_x(t,f_0/f;\Psi)\right|^2$$
266
267==== Skalogram -- dekompozycja sygnału ====
268<[figure]
269<<<images/cwt_1.png, scale=0.5>>>
270[figure]>
271
272
273==== Skalogram -- przykład ====
274<[figure]
275<<<images/cwt_2.png, scale=0.27>>>
276[figure]>
277Co z wyrazami mieszanymi?
278
279==== Skalogram -- wyrazy mieszane ====
280<[figure]
281<<<images/cwt_3.png, scale=0.27>>>
282[figure]>
283
284== Matching Pursuit ==
285
286==== Plan wykładu ====
287
288\tableofcontents[currentsection]
289
290=== Założenia ogólne ===
291
292==== Plan wykładu ====
293
294\tableofcontents[currentsection,currentsubsection]
295
296==== Założenia ogólne ====
297* Dopasowanie kroczące (ang. matching pursuit, MP) jest procedurą polegającą na rozłożeniu sygnału na funkcje składowe pochodzące z określonego zbioru funkcji (słownika).
298* Słowniki wykorzystywane w metodach czas-częstość często składają się z funkcji Gabora tj. funkcji sinus modulowanej funkcją Gaussa.
299* MP jest algorytmem iteracyjnym.
300* W pierwszym kroku dopasowywana jest funkcja spełniająca '''określone~założenia'''.
301* W każdym następnym kroku funkcja jest analogicznie dopasowywana do residuum sygnału, pozostałego po odjęciu wyniku poprzedniej iteracji.
302
303==== Dyskretny słownik funkcji Gabora ====
304Funkcję (atom) słownika czasowo-częstościowego
305można wyrazić jako translację ($u$), rozciągnięcie ($s$) i modulację
306($\omega$) funkcji okna $g(t) \in L^2(R)$
307$$
308g_\gamma (t) = \frac {1} {\sqrt{s}} g \left ( \frac {t - u} {s} \right )
309e^{i \omega t}
310$$
311Optymalną lokalizację w przestrzeni czas-częstość otrzymujemy dla Gaussowskiej
312obwiedni $g(t)$, co w przypadku analizy sygnałów o wartościach rzeczywistych
313daje słownik rzeczywistych atomów Gabora:
314$$
315g_{\gamma(t)}=K(\gamma,\phi ) e^{-\pi\left( \frac{t-u}{s}\right)^2}
316\sin(\omega (t-u)+\phi ))
317$$
318$K(\gamma, \phi)$ zapewnia normalizację $||g_{\gamma,\phi}||=1$.
319
320==== Dyskretny słownik funkcji Gabora ====
321Pomimo, że analizujemy sygnały dyskretne,
322parametry dopasowywanych funkcji mogą przyjmować wartości z
323przedziałów ciągłych. W praktyce korzystamy z relatywnie małych
324podzbiorów przestrzeni parametrów:
325$$\gamma~=~\{u,~s,~\omega\}$$
326
327Faza $\Phi$ jest zwykle przedmiotem osobnej optymalizacji dla każdej dopasowywanej funkcji.
328
329=== Definicja normy ===
330
331==== Plan wykładu ====
332
333\tableofcontents[currentsection,currentsubsection]
334==== Definicja normy ====
335Odwzorowanie $\|\cdot\|\colon X \to [0, \infty)$ spełniające, dla wszystkich elementów $x,y$ przestrzeni $X$ i skalarów $\alpha$ z ciała $K$, warunki:
336
337* niezdegenerowania, $\|x\| = 0 \Rightarrow x = 0$
338* dodatniej jednorodności, $\|\alpha x\| = |\alpha| \|x\|$
339* nierówności trójkąta (podaddytywności), $\|x + y\| \leqslant \|x\| + \|y\|$
340
341nazywa się '''normą''' (w przestrzeni $X$), a przestrzeń $X$ z określoną normą $\|\cdot\|$ nazywa się '''przestrzenią unormowaną'''.
342
343=== Norma w algorytmie MP ===
344
345==== Plan wykładu ====
346
347\tableofcontents[currentsection,currentsubsection]
348
349==== Norma w algorytmie MP ====
350* Norma w algorytmie MP używana jest do określenia elementu słownika, który należy użyć do tłumaczenia sygnału w pierwszej kolejności.
351* Dobór odpowiedniej normy znacząco wpływa na skuteczność algorytmu.
352* Rożne normy sprawdzają się w różnych klasach sygnałów.
353
354
355=== Norma $l_2$ ===
356
357==== Plan wykładu ====
358
359\tableofcontents[currentsection,currentsubsection]
360
361==== Norma $l_2$ ====
362Norma $l_2$ zwana metryką euklidesową w przestrzeni współrzędnych rzeczywistych dana jest wzorem:
363
364$$\|\mathbf x\| = \sqrt{\mathbf x \cdot \mathbf x} = \left(\sum_{i=1}^n x_i^2\right)^{1/2}$$
365
366Metryka euklidesowa jest również przypadkiem szczególnym (z parametrem $2$) szerszej klasy metryk wyznaczanych przez tzw. ,,metrykę Minkowskiego''.
367
368
369
370==== Norma $l_2$ w algorytmie MP ====
371Niech dany będzie zbiór funkcji (słownik) $D = \{g_1, g_2,
372\ldots, g_n\}$ takich, że $||g_i||=1$. Algorytm Matching Pursuit (MP) jest procedurą iteracyjną. W pierwszym
373kroku wybierana jest funkcja $g_{\gamma_0}$ dająca
374największy iloczyn skalarny z sygnałem $s$, po czym w
375każdym następnym kroku funkcja $g_{\gamma_n}$ jest
376analogicznie dopasowywana do residuum sygnału $R^n s$,
377pozostałego po odjęciu wyniku poprzedniej iteracji:
378
379$$
380\left \{
381\begin{array}{l}
382R^0s=s \\
383R^ns=\langle R^ns,g_{\gamma_n} \rangle g_{\gamma_n}+R^{n+1}s\\
384g_{\gamma_n}=\arg \max |\langle R^ns, g_{\gamma_i}\rangle |
385\end{array}
386\right .
387$$
388
389==== Norma $l_2$ w algorytmie MP cd. ====
390Ortogonalność $R^{n+1} s$ i $g_{\gamma_n}$ w każdym kroku procedury
391implikuje zachowanie energii.
392
393%$$||s||^2 =\sum_{n=0}^{m-1} {\|\langle R^n s, \g_{\gamma_n}\rangle} /|^2 + ||R^m s||^2$$
394Jeśli słownik $D$ jest kompletny, procedura zbiega do~$f$:
395
396$$
397s=\sum_{n=0}^\infty {\langle R^n s,\; g_{\gamma_n}\rangle g_{\gamma_n} }
398$$
399
400
401=== Norma $l_1$ ===
402
403==== Plan wykładu ====
404
405\tableofcontents[currentsection,currentsubsection]
406
407==== Norma $l_1$ ====
408'''Metryka Manhattan, taksówkowa, miejska, wielkomiejska''' – odległość dwóch punktów w tej metryce to suma wartości bezwzględnych różnic ich współrzędnych.
409
410
411W przestrzeni $\mathbb R^n$ metryka ta dana jest wzorem
412$$d_m(\mathbf x, \mathbf y) = \sum^n |x_k - y_k|$$
413
414Wyobraźmy sobie, że z jakichś powodów (kwadratowa sieć ulic przypominająca plan Manhattanu) możemy poruszać się jedynie w kierunkach wschód-zachód oraz północ-południe. Wtedy droga, jaką będziemy przebywać z jednego punktu do drugiego, wyniesie właśnie tyle, ile mówi o niej metryka miejska. W szczególności, jeśli $n = 1$, to
415$$d_m(\mathbf x, \mathbf y) = |x-y|$$
416
417==== Norma $l_1$ w algorytmie MP ====
418
419Niech dany będzie zbiór funkcji (słownik) $D = \{g_1, g_2,
420\ldots, g_n\}$ takich, że $||g_i||=1$. W każdym kroku algorytmu obliczane są iloczyny skalarne wszystkich funkcji
421 $g_{\gamma}$ z aktualnym residuum sygnału. Następnie wynik każdego takiego
422iloczynu jest kolejno odejmowany od residuum. Dekomponowany sygnał jest
423dyskretny, więc w wyniku otrzymywany jest ciąg liczb, będących różnicami
424w kolejnych próbkach sygnału. Ciąg ten jest sumowany. W danym kroku algorytmu
425wybierana jest ta funkcja ze słownika, dla której tak uzyskana suma jest najmniejsza.
426
427$$
428\left \{
429\begin{array}{l}
430R^0s=s \\
431R^ns=\langle R^ns,g_{\gamma_n} \rangle g_{\gamma_n}+R^{n+1}s\\
432g_{\gamma_n}=\arg \min | R^ns - g_{\gamma_i} |
433\end{array}
434\right .
435$$
436
437
438
439=== Porównanie ===
440
441==== Plan wykładu ====
442
443\tableofcontents[currentsection,currentsubsection]
444
445==== $l_2$ ====
446<[figure]
447<<<images/l2_2.png, scale=0.51>>>
448[figure]>
449
450==== $l_2$ ====
451<[figure]
452<<<images/l2.png, scale=0.38>>>
453[figure]>
454
455%==== Analizowany sygnał ====
456%<[figure]
457%<<<images/l2.png, scale=0.05>>>
458%[figure]>
459
460
461==== $l_1$ ====
462<[figure]
463<<<images/l1.png, scale=0.35>>>
464[figure]>
465
466==== Wrzeciona snu ====
467<[figure]
468<<<images/l1_l2.png, scale=0.3>>>
469[figure]>
470
471
472=== Implementacja ===
473
474==== Plan wykładu ====
475
476\tableofcontents[currentsection,currentsubsection]
477
478==== Wielozmienny algorytm MP (MMP) ====
479W sygnale wielozmiennym (ang. multivariate) pojedynczą próbkę zastępuje wektor wartości opisujących stan układu w danej chwili, jak jak na przykład potencjał EEG mierzony z wielu elektrod jednocześnie. Jeśli chcemy w takich sygnałach szukać cech wspólnych, na przykład tych samych struktur czas-częstość występujących w sąsiednich kanałach zapisu EEG, musimy ustalić więzy określające które z parametrów funkcji dopasowywanych w każdej iteracji muszą być jednakowe (np. położenie w czasie i szerokość), a które mogą się się różnić w sąsiednich kanałach (w sposób oczywisty różne będą amplitudy, ale może się też zmieniać np. faza).
480
481==== Wielozmienny algorytm MP (MMP) ====
482<[figure]
483<<<images/c3_p4.png, scale=0.25>>>
484[figure]>
485
486==== Złożoność obliczeniowa ====
487Wielkość słownika zawierającego funkcję Gabora zależy m. in. od:
488* położenia
489* długości sygnału
490* skali
491* fazy
492Wielkość takiej przestrzeni parametrów może wynosić nawet $N^4$, co dla 20 sekundowego sygnału daje $4096^3 \cdot 4 = 274$TB pamięci.
493
494
495=== Podsumowanie ===
496
497==== Plan wykładu ====
498
499\tableofcontents[currentsection,currentsubsection]
500
501==== Podsumowanie -- zalety oraz wady algorytmu MP ====
502<[block]{Zalety}
503* Lepsze odwzorowanie słabych struktur
504* Brak wyrazów mieszanych
505* Dokładna informacja na temat składowych sygnału
506* Dla niektórych klas sygnałów niezastąpiony
507[block]>
508
509<[block]{Wady}
510* Trudny w implementacji
511* Złożony obliczeniowo
512* Zależny od doboru normy
513* Zależny od doboru słownika
514* Wymagający dużej wiedzy a priori na temat sygnału
515[block]>
516
517
This page took 0.053272 seconds and 4 git commands to generate.