Docsity
Docsity

Prepara i tuoi esami
Prepara i tuoi esami

Studia grazie alle numerose risorse presenti su Docsity


Ottieni i punti per scaricare
Ottieni i punti per scaricare

Guadagna punti aiutando altri studenti oppure acquistali con un piano Premium


Guide e consigli
Guide e consigli

Frattali tesi, Tesi di laurea di Matematica Generale

Tesi di matematica sugli insiemi frattali

Tipologia: Tesi di laurea

2015/2016

Caricato il 26/07/2016

filo_rosso
filo_rosso 🇮🇹

4.7

(6)

11 documenti

Anteprima parziale del testo

Scarica Frattali tesi e più Tesi di laurea in PDF di Matematica Generale solo su Docsity! UNIVERSITÀ DEGLI STUDI DI TRIESTE Facoltà di Scienze Matematiche, Fisiche e Naturali Corso di Laurea in Matematica Tesi di Laurea in Matematica GLI INSIEMI FRATTALI: IL CONCETTO DI DIMENSIONE, L’AUTOSIMILARITÀ, GLI ALGORITMI Laureando: Relatore: Lorenzo Riccardo Scichilone Prof. Alessandro Fonda Anno Accademico 2003-2004 1 . 2 1 Misura e dimensione 1.1 Alcuni aspetti basilari di teoria della misura Sia X un insieme qualunque (nel seguito X sarà lo spazio euclideo n-dimensio- nale Rn). Una collezione non vuota S di sottoinisiemi di X è detta una σ-algebra se S è chiusa rispetto alla complementazione e alla unione numerabile, cioè 1) E ∈ S ⇒ X\E ∈ S 2) E1, E2, . . . ∈ S ⇒ ⋃∞ j=1Ej ∈ S. Si dimostra che una σ-algebra è anche chiusa rispetto all’intersezione nu- merabile e rispetto alla differenza di insiemi e che X e ∅ sono in S. Il limite inferiore e superiore di una successione di insiemi {Ej} sono definiti come lim inf j→∞ Ej = ∞⋃ k=1 ∞⋂ j=k Ej lim sup j→∞ Ej = ∞⋂ k=1 ∞⋃ j=k Ej. Quindi lim inf Ej consiste di quei punti giacenti in tutti tranne un numero finito di Ej, e lim supEj consiste di quei punti in infiniti insiemi Ej. Se Ej sta nella σ-algebra S per ogni j allora lim inf Ej e lim supEj ∈ S. Se lim inf Ej = lim supEj, scriviamo limEj per il valore comune; ciò accade sempre se {Ej} è una successione crescente o decrescente di insiemi. Sia C una qualunque collezione di sottoinsiemi di X. La σ-algebra generata da C, denotata con S(C), è l’intersezione di tutte le σ-algebre contenenti C. Si dimostra che S(C) è lei stessa una σ-algebra che può essere pensata come ”la più piccola” σ-algebra contenente C. Una misura µ è una funzione definita su una σ-algebra S di sottoinsiemi di X e avente valori in [0,+∞] tale che: 1) µ(∅) = 0 2) µ( ⋃∞ j=1Ej) = ∑∞ j=1 µ(Ej) (1.1) per ogni successione di insiemi disgiunti {Ej} in S. Da (1.1) segue che µ è una funzione crescente di insiemi, cioè se E ⊂ E ′ e E, E ′ ∈ S, allora µ(E) ≤ µ(E ′). Teorema 1.1 Sia µ una misura su una σ-algebra S di sottoinsiemi di X. a) se E1 ⊂ E2 ⊂ . . . è una successione crescente di insiemi in S, allora µ( lim j→∞ Ej) = lim j→∞ µ(Ej) 5 b) se F1 ⊃ F2 ⊃ . . . è una successione decrescente di insiemi in S e µ(F1) <∞, allora µ( lim j→∞ Fj) = lim j→∞ µ(Fj) c) per qualsiasi successione di insiemi {Fj} in S µ(lim inf j→∞ Fj) ≤ lim inf j→∞ µ(Fj) . Dimostrazione a) Si può esprimere ⋃∞ j=1Ej come l’unione disgiunta E1 ∪ ⋃∞ j=2(Ej\Ej−1). Da (1.1) segue µ( lim j→∞ Ej) = µ( ∞⋃ j=1 Ej) = µ(E1) + ∞∑ j=2 µ(Ej\Ej−1) = lim k→∞ [µ(E1) + k∑ j=2 µ(Ej\Ej−1)] = lim k→∞ µ(E1 ∪ k⋃ j=2 (Ej\Ej−1)) = lim k→∞ µ(Ek) . b) Se Ej = F1\Fj, allora {Ej} è come in a). Siccome ⋂ j Fj = F1\ ⋃ j Ej, allora µ( lim j→∞ Fj) = µ( ∞⋂ j=1 Fj) = µ(F1) − µ( ⋃ j Ej) = µ(F1) − lim j→∞ µ(Ej) = lim j→∞ (µ(F1) − µ(Ej)) = lim j→∞ µ(Fj). c) Sia Ek = ⋂∞ j=k Fj. Allora {Ek} è una successione crescente di insiemi in S, quindi per a) µ(lim inf j→∞ Fj) = µ( ∞⋃ k=1 Ek) = lim k→∞ µ(Ek) ≤ lim inf j→∞ µ(Fj). 6 Introduciamo le misure esterne, che sono essenzialmente misure con la pro- prietà (1.1) indebolita alla subadditività. Formalmente, una misura esterna ν su un insieme X è una funzione definita su tutti i sottoinsiemi di X avente valori in [0,+∞] tale che: 1) ν(∅) = 0 2) ν(A) ≤ ν(A′) se A ⊂ A′ (1.2) 3) ν( ⋃∞ j=1Aj) ≤ ∑∞ j=1 ν(Aj) (1.3) per ogni famiglia di sottoinsiemi Aj di X. Le misure esterne sono utili siccome c’è sempre una σ-algebra di sottoinsiemi sulla quale si comportano come misure; per misure esterne opportunamente definite questa σ-algebra può essere molto grande. Un sottoinsieme E di X è detto ν-misurabile o misurabile rispetto alla misura esterna ν se essa decompone ogni sottoinsieme di X additivamente, cioè se ν(A) = ν(A ∩ E) + ν(A\E) (1.4) per ogni ”insieme di prova” A ⊂ X. In realtà, è sufficiente controllare che ν(A) ≥ ν(A ∩ E) + ν(A\E) (1.5) siccome la diseguaglianza opposta è conseguenza di (1.3). Teorema 1.2 Sia ν una misura esterna. La collezione M degli insiemi ν-misurabili forma una σ-algebra, e la restrizione di ν ad M è una misura. Dimostrazione ∅ ∈ M, quindi M è non vuoto. Per la simmetria di (1.4), A ∈ M ⇔ X\A ∈ M. Allora M è chiuso rispetto alla complementazione. Per provare che M è chiuso rispetto all’unione nume- rabile, supponiamo che E1, E2, . . . ∈ M e sia A un insieme qualsiasi. Appli- cando (1.4) a E1, E2, . . . in sucessione con opportuni insiemi di prova, ν(A) = ν(A ∩ E1) + ν(A\E1) = ν(A ∩ E1) + ν((A\E1) ∩ E2) + ν(A\E1\E2) = k∑ j=1 ν((A\ j−1⋃ i=1 Ei) ∩ Ej) + ν(A\ k⋃ j=1 Ej). Quindi, per ogni k, ν(A) ≥ k∑ j=1 ν((A\ j−1⋃ i=1 Ei) ∩ Ej) + ν(A\ ∞⋃ j=1 Ej) 7 ν(A∩E) + ν(Aj) = ν((A∩E)∪Aj) ≤ ν(A) per ogni j, essendo ν una misura esterna metrica. La successione di insiemi {Aj} è crescente e, siccome E è chiuso, A\E = ⋃∞j=1Aj = limj→∞Aj. Se x ∈ A\E\Aj+1, esiste z ∈ E con d(x, z) < 1j+1 , quindi se y ∈ Aj, allora d(x, y) ≥ d(y, z) − d(x, z) > 1 j − 1 j+1 > 0. Quindi δ(Aj, A\E\Aj+1) > 0. Quindi, se δ(Aj, A\E\Aj+1) > 0 per ogni j, il lemma 1.3 fornisce ν(A\E) ≤ limj→∞ ν(Aj) e (1.5) segue da (1.7). 1.2 Misura di Hausdorff Lavoriamo nello spazio euclideo n-dimensionale, Rn, anche se molto di quello che diremo è valido in un generico spazio metrico. Se U è un sottoinsieme non vuoto di Rn, definiamo il diametro di U come |U | = sup{|x − y| : x, y ∈ U}. Poniamo inoltre |∅| = 0. Sia {Ui} una successione di insiemi. Se E ⊂ ⋃i Ui e 0 ≤ |Ui| ≤ δ per ogni i, diciamo che {Ui} è un δ-ricoprimento di E. Sia E un sottoinsieme di Rn e sia s un numero non negativo. Per δ > 0 definiamo Hsδ(E) = inf ∞∑ i=1 |Ui|s, (1.8) dove l’inf è calcolato su tutti i δ-ricoprimenti {Ui} di E. Lemma 1.5 Hsδ è una misura esterna su Rn. Dimostrazione -Verifichiamo che Hsδ(∅) = 0. Un δ-ricoprimento dell’insieme vuoto è costituito dall’insieme vuoto stesso. Quindi Hsδ(∅) = inf |∅|s = inf 0 = 0. -Verifichiamo che Hsδ(A) ≤ Hsδ(A′) se A ⊂ A′. Siano S1 = { ∑∞ i=1 |Ui|s : {Ui}i ricopre A}, S2 = { ∑∞ i=1 |Ui|s : {Ui}i ricopre A′}. Siccome S2 ⊂ S1, si ha inf S1 ≤ inf S2. Ne discende la tesi. -Verifichiamo che Hsδ( ⋃∞ j=1Aj) ≤ ∑∞ j=1 Hsδ(Aj). Hsδ( ∞⋃ j=1 Aj) = inf{ ∞∑ i=1 |Vk|s : {Vk}k δ-ricoprimento di ∞⋃ j=1 Aj} ≤ inf{ ∞∑ j=1 ∞∑ i=1 |Uji|s : {Uji}i δ-ricoprimento di Aj per ogni j}. 10 Fisso ε > 0. Per ogni j ≥ 1, esiste un δ-ricoprimento {Uji}i di Aj tale che ∞∑ i=1 |Uji|s ≤ Hsδ(Aj) + ε 2j . Mettendo assieme tutti questi {Uji}i, per j = 1, 2, 3, . . . si ottiene quindi un δ-ricoprimento di ⋃∞ j=1Aj e si ha ∞∑ j=1 ∞∑ i=1 |Uji|s ≤ ∞∑ j=1 (Hsδ(Aj) + ε 2j ) = ∞∑ j=1 Hsδ(Aj) + ε. Quindi Hsδ( ∞⋃ j=1 Aj) ≤ ∞∑ j=1 Hsδ(Aj) + ε. Per l’arbitrarietà di ε, si deve avere che Hsδ( ∞⋃ j=1 Aj) ≤ ∞∑ j=1 Hsδ(Aj). Lemma 1.6 Hsδ cresce al decrescere di δ. Dimostrazione Se δ1 < δ2 allora ogni δ1-ricoprimento è un δ2-ricoprimento, quindi se S1 = { ∑ |Ui|s : {Ui}i δ1-ricoprimento}, S1 = { ∑ |Ui|s : {Ui}i δ2-ricoprimento}, allora S1 ⊂ S2. Pertanto inf S1 ≥ inf S2, cioè Hsδ1(A) ≥ Hsδ2(A) per ogni A. Per ottenere la misura esterna s-dimensionale di Hausdorff di E facciamo tendere δ a 0. Quindi Hs(E) = lim δ→0 Hsδ(E) = sup δ>0 Hsδ(E). Il limite esiste, ma potrebbe essere infinito, dal momento che Hsδ cresce al de- crescere di δ. Lemma 1.7 Hs è una misura esterna. 11 Dimostrazione -Verifichiamo che Hs(∅) = 0. Hs(∅) = lim δ→0 Hsδ(∅) = lim δ→0 0 = 0. -Verifichiamo che Hs(A) ≤ Hs(A′) se A ⊂ A′. Siccome Hsδ è una misura esterna, Hsδ(A) ≤ Hsδ(A′) e quindi limδ→0 Hsδ(A) ≤ limδ→0 Hsδ(A′) che è ciò che volevamo dimostrare. -Verifichiamo che Hs(⋃∞j=1Aj) ≤ ∑∞j=1 Hs(Aj). Siccome Hsδ è una misura esterna, Hsδ( ⋃∞ j=1Aj) ≤ ∑∞ j=1 Hsδ(Aj). limδ→0 Hsδ( ⋃∞ j=1Aj) ≤ limδ→0 ∑∞ j=1 Hsδ(Aj). Se dimostro che limδ→0 ∑∞ j=1 Hsδ(Aj) ≤ ∑∞ j=1 limδ→0 Hsδ(Aj) ho concluso. Sia S il valore del secondo membro. Posso supporre S < +∞. Per ogni N ≥ 1, si ha lim δ→0 N∑ j=1 Hsδ(Aj) = N∑ j=1 lim δ→0 Hsδ(Aj) ≤ S. Fisso ε > 0. Esiste un δ > 0 tale che 0 < δ < δ ⇒ ∑Nj=1 Hsδ(Aj) ≤ S + ε per ogni N ≥ 1, da cui ∑∞j=1 Hsδ(Aj) ≤ S + ε. Quindi limδ→0 ∑∞ j=1 Hsδ(Aj) ≤ S + ε. Per l’arbitrarietà di ε, limδ→0 ∑∞ j=1 Hsδ(Aj) ≤ S. Lemma 1.8 Hs è una misura esterna metrica. Dimostrazione Prendiamo E ed F sottoinsiemi di Rn tali che δ(E,F ) > 0. Verifichiamo che Hs(E ∪ F ) = Hs(E) + Hs(F ). Se δ è minore del distanziamento positivo tra E ed F , nessun insieme in un δ-ricoprimento di E∪F può intersecare entrambi E ed F , quindi Hsδ(E∪F ) = Hsδ(E)+Hsδ(F ). Allora limδ→0 Hsδ(E ∪F ) = limδ→0 Hsδ(E)+ limδ→0 Hsδ(F ) che è ciò che volevamo dimostrare. La restrizione di Hs alla σ-algebra degli insiemi Hs-misurabili, che per il Teorema 1.4 include i boreliani è detta misura di Hausdorff s-dimensionale. Si noti che un’equivalente definizione della misura di Hausdorff si ottiene se l’inf in (1.8) è preso sui δ-ricoprimenti di E con insiemi convessi dello stesso diametro. Similmente, talvolta è conveniente considerare δ-ricoprimenti di in- siemi aperti o alternativamente chiusi. Sebbene si possa ottenere un diverso valore per Hsδ per δ > 0, il valore del limite Hs è lo stesso. Un altro discorso vale se si vuole prendere l’inf su δ-ricoprimenti costituiti da palle: come di- mostrato da Besicovich, la misura potrebbe in questo caso essere diversa. 12 La (1.9) ci dice che Nδ(F )δ s → ∞ se s < dimbF e Nδ(F )δs → 0 se s > dimbF . Però Nδ(F )δ s = inf{ ∑ i δs : {Ui} è un δ-ricoprimento (finito) di F}, che deve essere comparato con Hsδ(F ) = inf{ ∑ i |Ui|s : {Ui} è un δ-ricoprimento di F}, che compare nelle definizioni della misura e dimensione di Hausdorff. Nel calcolare la dimensione di Hausdorff, assegnamo pesi differenti |Ui|s agli insiemi ricoprenti Ui; invece per le dimensioni di conteggio dei box usiamo lo stesso peso δs per ogni insieme ricoprente; si può pensare che esse indichino l’efficienza con la quale un insieme possa essere ricoperto da piccoli insiemi della stessa grandezza, mentre la dimensione di Hausdorff coinvolge ricoprimenti con insiemi di grandezza piccola ma largamente variabile. Le dimensioni di conteg- gio dei box non possiedono molte buone proprietà che potremmo aspettarci, tuttavia sono determinate da ricoprimenti con insiemi della stessa grandezza ed allora tendono ad essere più facili da calcolare rispetto alla dimensione di Hausdorff. La dimensione di conteggio dei box purtroppo presenta dei problemi. Con- sideriamo a questo scopo il seguente teorema. Teorema 1.11 Sia F la chiusura di F . Allora dimbF = dimbF, dimbF = dimbF. Un’immediata conseguenza di questo è che se F è un sottoinsieme denso di una regione aperta di Rn, allora dimbF = dimbF = n. Ad esempio, sia F l’insieme (numerabile) dei numeri razionali tra 0 e 1. Allora F è l’intervallo [0, 1] e quindi dimbF = dimbF = 1. Ne segue che insiemi numerabili possono avere dimensione di conteggio dei box non nulla. La di- mensione di conteggio dei box di ogni numero razionale considerato come sin- goletto è chiaramente 0, ma l’unione numerabile di questi singoletti ha dimen- sione 1. Quindi non vale la proprietà della stabilità numerabile. Incontriamo nuove difficoltà anche se ci restringiamo solo agli insiemi chiusi. Ad esempio, F = {0, 1, 1 2 , 1 3 , . . .} è un insieme compatto con dimbF = 12 , ma nessuno vor- rebbe considerarlo un frattale. Tuttavia la dimensione di conteggio dei box ha una certa importanza teorica: se si dimostra che per un insieme coincide con la dimensione di Hausdorff, questo ha delle proprietà particolari. 15 Un’altro tipo importante di dimensione è la dimensione del compasso. Con- sideriamo la curva C, immagine dell’intervallo [a, b] tramite una biiezione con- tinua f : [a, b] → Rn. Se C è una curva e δ > 0, definiamo Mδ(C) come il numero massimo di punti x0, x1, . . . , xm sulla curva C, in quest’ordine, tali che |xk − xk−1| = δ per k = 1, 2, . . . ,m. Quindi (Mδ(C) − 1)δ può essere pensato come la lunghezza della curva C misurata con un compasso aperto su un’ampiezza δ. La dimensione del compasso è definita come lim δ→0 lnMδ(C) − ln δ , assumendo che il limite esista (altrimenti potremmo definire le dimensioni del compasso inferiore e superiore usando i limiti inferiore e superiore). Si può dimostrare che per una curva la dimensione del compasso è almeno uguale alla dimensione di conteggio dei box (assumendo che entrambe esistano) e sono uguali anche per semplici figure autosimilari, come la curva di Koch. L’affermazione che la costa della Gran Bretagna ha dimensione 1,2 viene di solito fatta considerando la dimensione del compasso; questo valore empirico deriva da stime per valori di δ compresi tra circa 20m e 200km. 16 2 Alcuni esempi di frattali e il concetto di au- tosimilarità 2.1 Curve di dimensione frazionaria Il miglior modo per ottenere una funzione il cui grafico presenta una struttura frastagliata è di sommare una successione di funzioni che oscillano sempre più velocemente. Quindi se ∑n i=1 |ai| < ∞ e λi → ∞, ci si aspetterebbe che la funzione definita dalla serie di funzioni trigonometriche f(x) = ∞∑ i=1 ai sin(λix) (2.1) abbia un grafico di dimensione maggiore di 1, se gli ai ed i λi sono scelti op- portunamente. Forse il più noto esempio di questo tipo è la funzione f(x) = ∞∑ i=1 λ(s−2)i sin(λix), dove 1 < s < 2 e λ > 1, costruita da Weierstrass per trovare un esempio di funzione continua ma non differenziabile in alcun punto. Si congettura che la funzione di Weierstrass abbia un grafico di dimensione s. (Sebbene una dimostrazione non sia ancora apparsa in letteratura, si ha notizia di una pre- pubblicazione apparsa in Cina in cui se ne annuncia una prova.) Per una computazione più semplice è conveniente sostituire la funzione seno in (2.1) con funzioni periodiche lineari a tratti. Sia g la funzione a ”zig-zag” di periodo 4 definita su R da g(x) =   x se 0 ≤ x < 1 2 − x se 1 ≤ x < 3 x− 4 se 3 ≤ x < 4 per 0 ≤ x < 4 e che si ripete periodicamente con periodo 4 su tutto R. Si può allora dimostrare che il grafico della funzione f(x) = ∞∑ i=1 λ(s−2)ig(λix), per x ∈ [0, 1], dove 1 < s < 2 e λ > 1, ha dimensione s. 2.2 Insiemi autosimilari Molti dei classici insiemi frattali sono autosimilari. Da un punto di vista in- tuitivo ciò significa che sono formati da parti geometricamente simili all’intera 17 è completato il primo passo di costruzione. Adesso ripetiamo il procedimento; rimuoviamo i terzi centrali degli intervalli [0, 1 3 ] e [2 3 , 1], il che porta a 4 intervalli di lunghezza 1 9 . Chiamiamo F2 l’unione di questi 4 intervalli. Continuiamo in questo modo. Al passo n-esimo si hanno esattamente 2n intervalli chiusi di lunghezza 1 3n . L’insieme di Cantor è definito da E = ⋂∞ k=1 Fk. Ai fini della sua rappresentazione grafica, però, preferiamo non disegnare i sin- goli punti, ma linee verticali passanti per i punti dell’insieme al fine di vedere meglio com’è fatto l’insieme. Un punto x appartiene all’insieme di Cantor se siamo certi che non verrà tolto indipendentemente da quante volte iteriamo il processo. Ovviamente 0, 1, 1 3 , 2 3 , 1 9 , 2 9 , 7 9 , 8 9 , 1 27 , 2 27 sono esempi di tali punti perché sono gli estremi degli intervalli che vengono creati nei passi di costruzione. Si può immaginare che tutti i punti dell’insieme di Cantor siano di questo tipo, ma ciò non è vero. In effetti, esso non è numerabile. L’insieme di Cantor è autosimilare con rapporto di contrazione 1 3 . Infatti è invariante rispetto alle similitudini dell’asse reale ψ1(x) = x 3 , ψ2(x) = x+ 2 3 . Verfichiamo che vale la condizione di insieme aperto per ψ1 e ψ2, prendendo come insieme aperto ]0, 1[. ψ1(]0, 1[) ∪ ψ2(]0, 1[) = ]0, 1 3 [ ∪ ]2 3 , 1[ ⊂ ]0, 1[ . Usiamo il teorema 2.2 per calcolare la dimensione di Hausdorff dell’insieme di Cantor. Qui rj = 1 3 per j = 1, 2. La (2.2) diventa 2 · 1 3s = 1, cioè s = log3 2 = ln 2 ln 3  0, 631. b) Il triangolo e il tappeto di Sierpinski Il triangolo ed il tappeto furono introdotti nel 1916. 20 La costruzione del triangolo di Sierpinski è la seguente: iniziamo con un tri- angolo F nel piano, prendiamo i 3 punti medi dei suoi lati che insieme ai 3 vertici del triangolo definiscono 4 triangoli congruenti di cui togliamo quello centrale. Ciò completa un passo della costruzione. Dopo il primo passo ab- biamo 3 triangoli congruenti i cui lati sono la metà dei lati del tiangolo di partenza e si toccano in tre punti. Poniamo F1 la loro unione. Ripetiamo lo stesso procedimento con i 3 triangoli rimasti. Il triangolo di Sierpinski è definito da E = ⋂∞ k=1 Fk. Usiamo il teorema 2.2 per calcolarne la dimensione di Hausdorff. Qui rj = 1 2 per j = 1, 2, 3. La (2.2) diventa 3 · 1 2s = 1, cioè s = log2 3 = ln 3 ln 2  1, 585. Si può fare un’analoga costruzione nello spazio tridimensionale a partire da un tetraedro. Il frattale corrispondente viene chiamato tetrix. Usiamo il teorema 2.2 per calcolarne la dimensione di Hausdorff. Qui rj = 1 2 per j = 1, . . . , 4. La (2.2) diventa 4 · 1 2s = 1, cioè s = log2 4 = 2. Notiamo che la dimensione di Hausdorff è, in questo caso, un numero intero. La costruzione del tappeto di Sierpinski è la seguente: 21 Iniziamo con un quadrato nel piano. Suddividiamolo in 9 piccoli quadrati con- gruenti di cui togliamo quello centrale. Poniamo F1 l’unione degli 8 quadrati rimasti e ripetiamo il procedimento. Il tappeto di Sierpinski è definito da E = ⋂∞ k=1 Fk. Usiamo il teorema 2.2 per calcolarne la dimensione di Hausdorff. Qui rj = 1 3 per j = 1, . . . , 8. La (2.2) diventa 8 · 1 3s = 1, cioè s = log3 8 = ln 8 ln 3  1, 893. Si può fare un’analoga costruzione nello spazio tridimensionale a partire da un cubo. Il frattale corrispondente viene chiamato spugna di Menger. Usiamo il teorema 2.2 per calcolarne la dimensione di Hausdorff. Qui rj = 1 3 per j = 1, . . . , 20. La (2.2) diventa 20 · 1 3s = 1, cioè s = log3 20 = ln 20 ln 3  2, 727. c) La curva di Koch La curva risale al 1904. La costruzione della curva di Koch è la seguente: partiamo da un segmento (che ad esempio può essere identificato con l’intervallo [0, 1]). Dividiamolo in 3 parti uguali e sostituiamo il terzo centrale con 2 lati di un triangolo equilatero di lato il segmento sostituito (il lato mancante è la base). Ciò completa un passo della costruzione. Poniamo F1 l’unione dei 4 segmenti e ripetiamo il processo con ciascuno di essi. La curva di Koch è definita da E = limk→∞ Fk, dove il limite è inteso nella metrica di Hausdorff. Koch intodusse questa curva per dare un altro esempio di una scoperta fatta dal matematico tedesco Karl Weierstrass come visto nella sezione 2.1. Egli aveva descritto una curva che non è differenziabile in alcun punto, cioè 22 trasliamolo in modo che un estremo coincida col punto medio del segmento di partenza e che il segmento ”appena tagliato” punti verso l’alto. Abbiamo 3 segmenti; poniamo F1 la loro unione. Questo completa il primo passo della costruzione. Su ciascuno dei 3 segmenti applichiamo il procedimento appena descritto, stando però attenti al verso nel quale puntano i nuovi segmentini (al primo passo veniva tagliato e spostato un solo segmento ed allora non c’erano problemi): sul segmento di destra il nuovo segmentino punterà verso l’alto, su quello centrale il segmentino punterà verso sinistra e su quello a sinistra il segmentino punterà verso il basso. Poniamo F2 l’unione di questi nuovi seg- mentini. Adesso possiamo procedere allo stesso modo stando attenti al verso in cui punteranno. Il frattale voluto è definito da E = limk→∞ Fk, dove il limite è inteso nella metrica di Hausdorff. Usiamo il teorema 2.2 per calcolarne la dimensione di Hausdorff. Qui rj = 1 3 per j = 1, 2, 3. La (2.2) diventa 3 · 1 3s = 1, cioè s = log3 3 = 1. Notiamo che la dimensione di Hausdorff è, in questo caso, un numero intero. 25 . 26 3 Algoritmi per i frattali Tipicamente i frattali sono costruiti tramite algoritmi (già in teoria), quindi sono adatti ad essere generati da programmi per computer (anzi, è stata pro- prio l’introduzione dei computers a spianare la via alla ricerca sui frattali). In particolare, per la maggior parte dei frattali funzionano molto bene gli al- goritmi ricorsivi. Vediamo esattamente cosa sono. Una funzione definita tramite ricorsione ha 2 caratteristiche principali: la con- dizione base e il passo di riduzione. La condizione base ritorna dei valori (per uno o più ”particolari” valori del dominio) senza effettuare alcuna chiamata ricorsiva; di solito si tratta di costanti o comunque di valori facili da calcolare esplicitamente. Il passo di riduzione mette in relazione la funzione calcolata in uno o più valori del dominio con la stessa funzione calcolata in uno o più altri valori del dominio. La successione dei valori del dominio che vengono chiamati nella ricorsione deve convergere ai valori per i quali vale la condizione base, diversamente avremmo una continua chiamata della stessa funzione che impedirebbe la computazione effettiva. L’esempio per eccellenza di funzione definita tramite ricorsione è il fattoriale. 0! = 1 n! = n · (n− 1)! Per il fattoriale la condizione base è 0! = 1, mentre il passo di riduzione è n! = n · (n − 1)!. È ben definito, siccome quando vogliamo calcolare n!, ci riferiamo ad (n − 1)! che a sua volta si riferisce ad (n − 2)! e cos̀ı via, quindi alla fine arriveremo a dover valutare 0!, il che sappiamo fare. Adesso dovrebbe risultare più chiaro perché per i frattali vanno bene gli algo- ritmi ricorsivi; il motivo è legato all’autosimilarità. Volendo disegnare l’iterata k-esima di un frattale, questa si ottiene dall’iterata (k − 1)-esima, la quale si ottiene allo stesso modo dall’iterata (k − 2)-esima e cos̀ı via, fino ad arrivare alla struttura dalla quale bisogna partire; la condizione base della ricorsione avrà appunto il compito di disegnarla. Da quel che ho scritto risulta chiaro che ciò che comparirà sullo schermo del computer non sarà il frattale, ma la sua iterata k-esima, infatti la griglia di pixel del computer è discreta e non consente di rappresentare figure con det- tagli infinitamente piccoli, senza contare che il computer non può eseguire una computazione infinitamente lunga. Sebbene i frattali presentino strutture infinitamente complesse, per essi è carat- teristico che sono generati da algoritmi estremamente semplici (vale anche per frattali particolari come l’insieme di Mandelbrot e gli insiemi di Julia, i quali non si ottengono esattamente come descritto poco fa) il che in termini infor- matici si tradurrebbe in programmi di pochissime righe. Ed effettivamente le parti essenziali di tali programmi sono lunghe poche righe, tuttavia molte volte sono necessarie altre istruzioni; il loro numero dipende dal particolare linguaggio di programmazione utilizzato; queste istruzioni di solito definiscono 27 ritorna (a,b); procedura (vettore a 2 componenti)=psi4(x,y) a:=x/3; b:=(y+1)/3; ritorna (a,b); procedura (vettore a 2 componenti)=psi5(x,y) a:=(x+2)/3; b:=(y+1)/3; ritorna (a,b); procedura (vettore a 2 componenti)=psi6(x,y) a:=x/3; b:=(y+2)/3; ritorna (a,b); procedura (vettore a 2 componenti)=psi7(x,y) a:=(x+1)/3; b:=(y+2)/3; ritorna (a,b); procedura (vettore a 2 componenti)=psi8(x,y) a:=(x+2)/3; b:=(y+2)/3; ritorna (a,b); Ecco la procedura ricorsiva: procedura sierpinski(k,x,y,l) se k=0 disegna_quadrato_pieno(x,y,l); altrimenti punto1:=psi1(x,y); punto2:=psi2(x,y); punto3:=psi3(x,y); punto4:=psi4(x,y); punto5:=psi5(x,y); punto6:=psi6(x,y); punto7:=psi7(x,y); punto8:=psi8(x,y); sierpinski(k-1,punto1(1),punto1(2),l/3); sierpinski(k-1,punto2(1),punto2(2),l/3); 30 sierpinski(k-1,punto3(1),punto3(2),l/3); sierpinski(k-1,punto4(1),punto4(2),l/3); sierpinski(k-1,punto5(1),punto5(2),l/3); sierpinski(k-1,punto6(1),punto6(2),l/3); sierpinski(k-1,punto7(1),punto7(2),l/3); sierpinski(k-1,punto8(1),punto8(2),l/3); Per disegnare il triangolo di Sierpinski l’algoritmo è simile. c) La curva di Koch Si può procedere come segue per disegnare la k-esima iterata. Descrizione delle variabili e convenzioni: x1,y1 - coordinate dell’estremo sinistro di un segmento x2,y2 - coordinate dell’estremo destro di un segmento k - iterata Per le procedure standard valgono analoghe convenzioni come per l’insieme di Cantor. Nella procedura "disegna_segmento" gli argomenti rappresentano le coordi- nate degli estremi del segmento stesso. Ecco le procedure che definiscono le trasformazioni: procedura (vettore a 2 componenti)=psi1(x,y) a:=(x+2*x1)/3; b:=(y+2*y1)/3; ritorna (a,b); procedura (vettore a 2 componenti)=psi2(x,y) a:=(x-radice_quadrata(3)*(y-y1)+3*x1+2*x2)/6; b:=(radice_quadrata(3)*(x-x1)+y+3*y1+2*y2)/6; ritorna (a,b); procedura (vettore a 2 componenti)=psi3(x,y) a:=(x+radice_quadrata(3)*(y-y2)+8*x1+3*x2)/6; b:=(-radice_quadrata(3)*(x-x2)+y+8*y1+3*y2)/6; ritorna (a,b); procedura (vettore a 2 componenti)=psi4(x,y) a:=(x+2*x2)/3; b:=(y+2*y2)/3; ritorna (a,b); Ecco la procedura ricorsiva: procedura koch(k,x1,y1,x2,y2) 31 se k=0 disegna_segmento(x1,y1,x2,y2); altrimenti punto1:=psi1(x1,y1); punto2:=psi1(x2,y2); punto3:=psi2(x1,y1); punto4:=psi2(x2,y2); punto5:=psi3(x1,y1); punto6:=psi3(x2,y2); punto7:=psi4(x1,y1); punto8:=psi4(x2,y2); koch(k-1,punto1(1),punto1(2),punto2(1),punto2(2)); koch(k-1,punto3(1),punto3(2),punto4(1),punto4(2)); koch(k-1,punto5(1),punto5(2),punto6(1),punto6(2)); koch(k-1,punto7(1),punto7(2),punto8(1),punto8(2)); 32 Ora, |z20 + c| ≥ |z20 | − |c| = |z0|2 − |c| ≥ |z0|2 − |z0| = (|z0| − 1)|z0| = (1 + ε)|z0|. Quindi se iteriamo una volta, il modulo aumenterà di un fattore 1 + ε. La k-esima iterata avrà modulo almeno (1 + ε)k volte il modulo di z0. Quindi il modulo tende all’infinito e allora z0 sta nell’insieme di fuga. Corollario 4.2 Se, iterando z → z2 +c, un punto zk dell’orbita soddisfa le condizioni |zk| ≥ |c| e |zk| > 2, l’orbita scappa all’infinito. In particolare il punto iniziale dell’orbita z0 sta nell’insieme di fuga. Ora vediamo un algoritmo per disegnare gli insiemi di Julia. Siccome di solito i computers non lavorano direttamente con i numeri complessi, scriviamo la formula dell’iterazione nelle componenti reale ed immaginaria. L’iterazione è zk+1 = z 2 k + c, con zk = xk + yki, c = a+ bi. 35 Quindi, z2k + c = (xk + yki) 2 + a+ bi = x2k − y2k + 2xkyki+ a+ bi = x2k − y2k + a+ (2xkyk + b)i Descrizione delle variabili e convenzioni: x,y - parti reale ed immaginaria di z modqz - modulo al quadrato di z xtemp - variabile che tiene temporaneamente il valore di x xmin, xmax - minimo e massimo valore che può assumere x nella griglia di pixel ymin, ymax - minimo e massimo valore che può assumere y nella griglia di pixel a,b - parti reale ed immaginaria di c px, py - passi dei quali ci muoviamo nella griglia di pixel lungo le direzioni delle ascisse e delle ordinate n - numero massimo di iterazioni maxcol - numero massimo di colori (stiamo supponendo di possedere un elenco finito di colori) Con k mod maxcol indico il resto della divisione tra k e maxcol Algoritmo: imposta sfondo nero per i che va da xmin ad xmax con passo px x:=i; per j che va da ymin ad ymax con passo py y:=j; per k che va da 1 ad n con passo 1 xtemp:=quadrato(x)-quadrato(y)+a; y:=2*x*y+b; x:=xtemp; modqz:=quadrato(x)+quadrato(y); se modqz>4 scegli_colore(k mod maxcol); disegna_punto(x,y); esci dal ciclo; fine del terzo ciclo "per" x:=i; fine del secondo ciclo "per" fine del primo ciclo "per" Il programma scritto sopra assume che se non si verifica mai la condizione che ci assicura che la successione diverge entro il numero massimo di iterazioni, 36 allora il punto appartiene all’insieme di Julia. Ciò in generale non è vero, ma senza questo accorgimento dovremmo effettuare infinite iterazioni per tutti i punti appartenenti all’insieme di Julia della griglia di pixel. Più è grande il numero massimo di iterazioni, più il disegno è preciso. Ho usato una variabile temporanea perché diversamente il calcolo di 2xy + b sarebbe risultato errato, in quanto il valore di x sarebbe già stato aggiornato. Ho confrontato i quadrati dei moduli dei numeri complessi per evitare l’opera- zione radice in modo da velocizzare l’algoritmo. Gli insiemi di Julia, a seconda del valore del parametro c, sono di 2 tipi: connessi (formati da un pezzo) o totalmente sconnessi (le componenti connesse sono formate da singoli punti, l’aspetto visivo è una ”polvere”). Come ultima cosa voglio nominare un diverso tipo di insiemi di Julia. Finora li abbiamo costruiti a partire dai numeri complessi e quindi si trovavano nel piano. Si possono costruire anche a partire da quaternioni, cioè numeri a 4 componenti, introdotti nel 1843 dal fisico e matematico irlandese William R. Hamilton. Essi sono della forma x = a+ bi+ cj + dk, dove j e k sono 2 nuove unità immaginarie e a, b, c, d sono le 4 componenti del quaternione. Per i quaternioni valgono quasi tutte le regole per i numeri complessi a parte per la moltiplicazione che non è commutativa. Le unità immaginarie soddisfano alle seguenti regole: i2 = j2 = k2 = −1 ij = −ji = k jk = −kj = i ki = −ik = j. Un insieme di Julia costruito sui quaternioni, ristretto al piano complesso, prendendo c complesso, è identico ad un insieme di Julia tradizionale. 4.2 L’insieme di Mandelbrot L’insieme di Mandelbrot è certamente il frattale più popolare, probabilmente il più popolare oggetto della matematica contemporanea in assoluto. Certe persone affermano che non è solo il più bello, ma anche il più complesso oggetto mai visto. Da quando Mandelbrot fece il suo straordinario esperimento nel 1979, è stato riprodotto da decine di migliaia di scienziati amatoriali nel mondo. Abbiamo visto che gli insiemi di Julia sono generati dall’iterazione di z → z2+c e che per ogni c abbiamo un diverso insieme di Julia. Abbiamo anche visto che per certi parametri c l’insieme di Julia è connesso e per altri è totalmente sconnesso. Nel 1979 Mandelbrot ebbe l’idea di rappresentare graficamente questa dicotomia facendo variare i parametri c nel piano complesso. Cos̀ı defiǹı in questo modo l’insieme di Mandelbrot: M = {c ∈ C : Jc è connesso }. 37 fine del secondo ciclo "per" fine del primo ciclo "per" Valgono le stesse note che ho scritto per il programma per l’insieme di Julia. 40 Bibliografia M. F. Barnsley, R. L. Devaney, B. B. Mandelbrot, H.-O. Peitgen, D. Saupe e R. F. Voss, The Science of Fractal Images, Springer, New York 1988. R. L. Devaney, Chaos, Fractals and Dynamics: Computer experiments in Mathematics (videocassetta), New York 1989. R. L. Devaney, Transition to Chaos: the orbit diagram and the Mandelbrot Set (videocassetta), New York 1990. G. A. Edgar, Measure, Topology and Fractal Geometry, Springer, New York 1990. K. J. Falconer, The Geometry of Fractal Sets, Cambridge University Press, Cambridge 1985. K. J. Falconer, Fractal Geometry - Mathematical Foundations and Applica- tions, Wiley and Sons, New York 1997. H.-O. Peitgen, H. Jürgens e D. Saupe, Fractals for the Classroom (due volumi), Springer, New York 1992. H.-O. Peitgen, H. Jürgens, D. Saupe e C. Zahlten, I Frattali Illustrati da E. Lorenz e B. B. Mandelbrot (videocassetta), Le Scienze, Roma 1991. Siti internet R. Sedgewick e K. Wayne, www.cs.princeton.edu/introcs/27recursion/ E. Stepp e K. Shirriff, www.non.com/news.answers/fractal-faq.html Liceo Scientifico Statale ”Paolo Frisi”, www.miorelli.net/frattali 41
Docsity logo


Copyright © 2024 Ladybird Srl - Via Leonardo da Vinci 16, 10126, Torino, Italy - VAT 10816460017 - All rights reserved