Ad Menu

Linuxlandia

Linuxlandia:
Il successo del software libero viene decretato ogni anno che passa e la sua più famosa interpretazione è GNU/Linux, un sistema operativo molto performante, scalabile e sicuro, diffuso in tutto il mondo grazie alle proprie caratteristiche di qualità.
Software vivo, liberamente usufruibile e distriuibile senza nessuna limitazione, un movimento che cresce e si diffonde tra le persone e il mondo professionale con una grande rapidità grazie alla rete Internet, la quale è stata ambiente incubatorio
per lo stesso.



Convenzioni:
Esistono numerose distribuzioni GNU/Linux e in un panorama così ampio era necessario compiere delle scelte.
Nel mio quotidiano operare utilizzo con gioia "Ubuntu" e "Debian" GNU/Linux e derivate, ma sono conscio del fatto che a livello commerciale sono maggiormente diffuse distribuzioni come SuSE, Red Hat o Mandriva.

Il prompt dei comandi:
Per la rappresentazione del prompt dei comandi si è genericamente scelto di utilizzare il simbolo: # (cancelletto) per comandi da digitare come utente “root”, mentre il semplice $ (dollaro) per i comandi utilizzabili come utenti di sistema.

Storia:
L’esponenziale crescita della rete ha cambiato l’identità della società evoluta o per lo meno quella “informatizzata”.
Un incredibile mole di dati circola sulle autostrade dell’informazione, dati privati, transazioni economiche e altro ancora.
La vita delle persone si impossessa del mezzo e porta con sé ogni umana caratteristica e fobia, reale e non.
Se nel mito popolare esisteva l’uomo nero oggi esiste un nuovo termine per descrivere qualcuno che attenta ai diritti altrui: hacker.

Jargon,la nascita di un gergo:
L’inizio della cultura hacker si può datare all’anno 1961,con lo sviluppo della rete di comunicazione ARPAnet, il gergo hacker (jargon) si diffuse nelle principali Università collegate.
La terminologia utilizzata fu raccolta in un file da Raphael Finkel presso l’università di Stanford nel 1975.
Un nuovo polo di sviluppo della cultura hacker fu il centro di ricerca di Palo Alto dove dalla fine degli anni ’70 alla metà degli anni ’80 vennero sviluppate un numero altissimo di nuove tecnologie come le interfacce visuali ad icone e finestre, le stampanti laser e tecnologie per le reti locali di computer.
Il legame tra hacker e nuove scoperte tecnologiche è quindi strettissimo.
Caratteristica comune per quelle persone che definiamo hacker è il raggiungimento di un obiettivo nel minor tempo possibile, una rivisitazione in chiave moderna di "il principio giustifica il mezzo" di Machiavelli.
Come viene riportato nel Jargon File: ":hacker:" [originally, someone who makes furniture with an axe].

Hackers:
  1. A person who enjoys exploring the details of programmable systems and how to stretch their capabilities, as opposed to most users, who prefer to learn only the minimum necessary.
  2. One who programs enthusiastically (even obsessively) or who enjoys programming rather than just theorizing about programming.
  3. A person capable of appreciating {hack value}.
  4. A person who is good at programming quickly.
  5. An expert at a particular program, or one who frequently does work using it or on it; as in "a Unix hacker". (Definitions 1 through 5 are correlated, and people who fit them congregate.)
  6. An expert or enthusiast of any kind. One might be an astronomy hacker, for example.
  7. One who enjoys the intellectual challenge of creatively overcoming or circumventing limitations.
  8. [deprecated] A malicious meddler who tries to discover sensitive information by poking around. Hence "password hacker", "network hacker". The correct term for this sense is "{cracker}".
  1. Una persona che si diverte esplorando i dettagli nella programmazione di sistemi e cerca la modalità per ottenere il massimo delle prestazioni.
  2. Qualcuno che programma con entusiasmo (spesso ossessivamente) o si diverte programmando ancor prima che teorizzare sulla programmazione.
  3. Una persona capace di apprezzare.
  4. Una persona capace di programmare rapidamente.
  5. Una persona esperta nell’utilizzo di un dato programma.
  6. Una persona esperta o entusiasta per ogni ambito,anche l’astronomia.
  7. Una persona che si diletta nella sfida intellettuale di superare o aggirare creativamente dei limiti.
  8. Esiste anche una connotazione negativa del termine legata a fattori di criminalità informatica e viene espressamente indicata con il termine cracker.
I media spesso confondono le due definizioni e utilizzano hacker con carattere negativo.
Anche la "new economy" gioca con il fattore terrore e non è un caso che siano proprio i produttori di soluzioni di sicurezza a migliorare le proprie quotazioni in borsa durante attacchi informatici, un effetto che spesso autoalimenta la propria causa scaturante.

Cracker e Phreaker:
I termine è stato coniato all’incirca nel 1985 da hackers che cercavano di difendere e distaccarsi dalle connotazioni negative che i media usavano a dismisura.
Fondamentalmente entrambi i termini delineano persone che hanno compiuto attività di cracking e le tecniche spesso sono le medesime ma spesso la differenza è nel fine.
Mentre un hacker scardina delle misure di sicurezza per ottenere uno scopo benefico e raggirare dei limiti tecnici, un cracker si appropria della conoscenza per proprio esclusivo interesse.
Ulteriore neologismo che si integra con i termini citati è phreaker, colui che compie cracking sulla rete telefonica per effettuare ad esempio chiamate a lunga distanza senza spendere nulla. Fino alla prima metà degli anni ’80 la tecnologia che controllava le reti telefoniche era piuttosto antiquata e facilmente scardinabile per propri scopi.
Il cambiamento avvenne con l’aggiornamento tecnologico successivo che tagliò radicalmente molte delle vecchie tecniche di phreaking.
Anche l’arresto di gruppi di persone che compievano questa tipologia di azioni divenne un freno ed è diventato difficile sentir parlare di "blue box 1" al giorno d’oggi.

Linux e l’arte di fare "hacking":
Linus Torvalds, il creatore di Linux, ha sempre definito il proprio sistema come: "un sistema operativo per hackers scritto da un hacker".
La chiave di lettura è piuttosto semplice da decifrare: lo sviluppo di soluzioni software prevede la necessità di automatizzare procedure umane rendendole più semplici, utili e usabili.
Il networking ha trovato una rapida convergenza con il software negli ultimi anni aggiungendo potenzialità come rischi dal punto di vista della sicurezza.
Compiere azioni di hacking verso questi software vuol dire testarne le capacità di sicurezza e stabilità onde evitare problemi o disservizi degli stessi.
Da punto di vista più generale anche il supporto informativo degli utenti finali offrono un corposo feedback agli sviluppatori ove sia possibile farlo.
Nel mondo del software libero è molto facile contattare i singoli sviluppatori del software creando un rapporto di cooperazione rapido ed efficace, cosa molto difficile e spesso eccessivamente filtrata nel mondo del software proprietario.
Linux e il software libero in generale non sarebbero quelli che sono se non avessero avuto l’apporto e la creatività degli hackers della Free Software Foundation di Stallman e dei cosidetti battitori liberi, studenti e sviluppatori che portano la propria esperienza e il proprio tempo verso il free software circoscrivendo con grande rapidità il concetto di qualità totale o all'evoluzione scientifica.
Le blue box erano appositi strumenti che venivano utilizzati dai phreaker per simulare le chiamate telefoniche.

L’importanza della sicurezza informatica:
Nel testo sono numerosi i richiami sulla sicurezza personale e la sicurezza lato server come strumento di gestione delle informazioni e delle comunicazioni condivise.
Di seguito viene accennato il comportamento giuridico italiano sul tema introdotto.

Limiti minimi di sicurezza per le aziende:
Si è fatto cenno al termine cracker come "Pirati informatici" e di conseguenza mi è sembrato ovvio riportare anche come la legge italiana si muove in merito.
Dalla legge 31 dicembre 1996, n. 675 viene tratto quanto segue:

Sicurezza dei dati:
  1. I dati personali oggetto di trattamento devono essere custoditi e controllati, anche in relazione alle conoscenze acquisite in base al progresso tecnico, alla natura dei dati e alle specifiche caratteristiche del trattamento, in modo da ridurre al minimo, mediante l’adozione di idonee e preventive misure di sicurezza, i rischi di distruzione o perdita, anche accidentale, dei dati stessi, dall'accesso non autorizzato o di trattamento non consentito o non conforme alle finalità della raccolta.
  2. Le misure minime di sicurezza da adottare in via preventiva sono individuate con regolamento emanato con decreto del Presidente della Repubblica, ai sensi dell’articolo 17, comma 1, lettera a), della legge 23 agosto 1988, n. 400, entro centottanta giorni dalla data di entrata in vigore della presente legge, su proposta del Ministro di grazia e giustizia, sentiti l’Autorità per l’informatica nella pubblica amministrazione e il Garante.
  3. Le misure di sicurezza di cui al comma 2 sono adeguate, entro due anni dalla data di entrata in vigore della presente legge e successivamente con cadenza almeno biennale, con successivi regolamenti emanati con le modalità di cui al medesimo comma 2, in relazione all’evoluzione tecnica del settore e all’esperienza maturata.
  4. Le misure di sicurezza relative ai dati trattati dagli organismi di cui all’articolo 4, comma 1, lettera b), sono stabilite con decreto del Presidente del Consiglio dei ministri con l’osservanza delle norme che regolano la materia.
Omessa adozione di misure necessarie alla sicurezza dei dati:
Chiunque, essendovi tenuto, omette di adottare le misure necessarie a garantire la sicurezza dei dati personali, in violazione delle disposizioni dei regolamenti di cui ai commi 2 e 3 dell’articolo 15, è punito con la reclusione sino ad un anno.
Se dal fatto deriva nocumento, la pena è della reclusione da due mesi a due anni.
Se il fatto di cui al comma 1 è commesso per colpa si applica la reclusione fino a un anno.
Il complesso di accorgimenti e cautele di tipo organizzativo e tecnologico che le imprese devono adottare al fine di evitare la dispersione, la perdita o l’uso illecito dei dati contenuti nei loro data base, rappresenta uno degli adempimenti più importanti previsti dalla legge n.675 del 1996, la cui individuazione è stata affidata al regolamento n.318 del luglio 1999.
Il regolamento stabilisce che tali misure debbano essere adottate entro il 29 marzo 2000, pertanto, l’attenzione del mondo delle imprese ai problemi di adeguamento.

L’incontro tecnico ha avuto, quindi, lo scopo di dissipare, attraverso il confronto e il dialogo con il Garante, dubbi interpretativi e difficoltà di applicazione delle norme.
La legge sulla privacy, oltre a garantire la salvaguardia dei dati personali di ogni persona, offre, dal punto di vista aziendale, una serie di vincoli e opportunità volta a definire una metodologia aziendale capace non solo di promuovere la cultura della protezione dei dati, ma anche di salvaguardare il patrimonio informativo aziendale.
Va aggiunto che il regolamento non vuole descrivere a livello tecnico le soluzioni più idonee ma punire con sanzioni chi non adempie neppure le misure minime di sicurezza fissate dalla legge sulla privacy.
Nello sviluppo di una cultura della protezione dei dati un ruolo fondamentale avrà la formazione del personale.
La consapevolezza delle misure per la sicurezza e la protezione dei dati non devono essere viste come un vincolo ma come un’occasione di crescita, che consente una maggiore trasparenza dei flussi di informazioni, la revisione delle attività svolte e delle procedure di gestione e il riordino degli archivi.
Non si desidera tutelare il crimine informatico, che come tale deve essere punito, ma fare luce su aspetti che spesso vengono trascurati o trattati in maniera errata e poco documentata da molti giornalisti, spesso per ignoranza o favori a chi detiene interessi avversi alla filosofia del software libero.
Essere "hacker" non vuol dire essere "criminali", ma rapportarsi in una determinata maniera difronte alla tecnologia, un particolare approccio che spinge a testare una soluzione, materiale o immateriale come il software, per scoprirne i limiti e apportare propria genialità per migliorarla e renderla qualitativamente "migliore" e più sicura.
Niente di diverso dalla naturale spinta evolutiva.
L’hacking deve essere un fattore culturale presente nella vita reale di una comunità informatizzata dove l’individuo è rappresentato sempre più da una collezione di informazioni e la tutela di queste ultime decreta la privacy dello stesso.

Internet e Telematica:
Internet ha decretato la nascita di una nuova civiltà fondata sulla comunicazione telematica. Sono cadute le barriere legate alla distanza metrica ed è possibile, grazie alla rete, comunicare in tempo reale con una persona nella parte opposta del globo.
Internet ha reso il mondo a misura d’uomo.

La Storia di Internet (in Inglese):

Le origini:
Alla fine degli anni ’60 il Dipartimento della Difesa degli Stati Uniti sviluppò soluzioni per affrontare eventuali attacchi bellici.
Erano gli anni della guerra fredda e questa condizione spingeva la ricerca verso sistemi di sicurezza e comunicazione adeguati.
L’iniziale progetto venne affidato dal Dipartimento della Difesa ad ARPA.
Tra il 1962 e il 1964 Paul Baran, un ingegnere alle dipendenze della RAND Corporation e figura in stretto rapporto con ARPA, elaborò 11 rapporti dedicati al problema di come costruire una rete di telecomunicazioni in grado di "sopravvivere" in caso di guerra nucleare e di attacco al territorio americano da parte di forze nemiche ed è da questi rapporti che è sorto per la prima volta il termine di "Rete distribuita", un concetto basilare nel successivo sviluppo delle reti telematiche e di Internet.
Una rete distribuita è caratterizzata da una topologia a ragnatela e non esiste una gerarchia preordinata di nodi.
Venne creata una prima rete di 4 nodi e la struttura era basata sul precedente concetto e sulla pariteticità dei nodi (peer to peer).
La trasmissione dei dati all’epoca era particolarmente vincolata alle infrastrutture hardware e i sistemi operativi utilizzati; ARPAnet era così vincolata a particolari infrastrutture di calcolo e comunicative.
I limiti furono presto superati grazie allo sviluppo di un protocollo ideato per la trasmissione dei dati, il "tcp/ip" (Transmission Control Protocol/Internet Protocol), lo stesso protocollo che tuttora viene utilizzato per Internet.
L’Internet Protocol Suite, completata negli anni ’70, era in sintesi un mezzo estendibile per la comunicazione tra "mezzi di trasmissione" eterogenei.
Dopo questa particolare innovazione ARPAnet divenne predominio dei ricercatori universitari che lavoravano per il Pentagono, la comunità scientifica che si accorse per prima della grande utilità nell’utilizzo remoto di supercalcolatori per scopi di ricerca e comunicazione tra le varie università americane sparse sul territorio nazionale. La mole di informazione crebbe a tal punto che nel 1984 ARPAnet venne scissa in due reti ben distinte: "Milnet" per scopi militari ed "Arpanet" per scopi scientifici.
Il Dipartimento della Difesa Americana smise di finanziare il traffico interuniversitario ed il compito di gestione venne assunto dal National Science Foundation, che diede vita a NSFnet. Nel 1985 la rete scientifica cambiò nome in Internet e le stime mostravano 326 computer collegati dei quali 16 fuori dagli Stati Uniti.
Nel 1990 erano collegati in rete circa 1000 calcolatori e tre anni dopo, nel 1993, la cifra divenne 20 volte superiore.
Tutto questo fu possibile grazie alla liberalizzazione di Internet in ambiti accademici e scientifici e alla diffusione del sistema operativo Unix nella versione Berkeley, strumento storicamente in relazione con la rete stessa sin dalle sue prime fasi di sviluppo.

Autostrade dell’Informazione:
All’inizio degli anni ’90, come abbiamo rilevato precedentemente, il numero di calcolatori collegati ad Internet ebbe una crescita esponenziale tanto da interessare molti enti commerciali.
I vincoli iniziali vietavano l’utilizzo della rete per scopi differenti da quelli scientifici e molte compagnie interessate furono spinte ad entrare in stretta correlazione con le università nell’ambito della ricerca per superare questi limiti.
Molte compagnie commerciali crearono loro stesse delle dorsali di comunicazione da integrare ad Internet per i propri scopi e generarono un processo evolutivo senza limitazioni verso la copertura capillare del pianeta.
Dopo una situazione simile le barriere vennero abbattute e si diede libero campo alle iniziative private e all’uso della rete per scopi variegati.
Le autostrade dell’informazione (Information Highways), così come venne definita Internet, erano un obiettivo fondamentale nella campagna politica di Al Gore, un sogno che divenne realtà con il suo incarico a vice-presidente degli Stati Uniti durante il governo Clinton.
Gli Stati Uniti erano consci del loro vantaggio tecnologico e dell’opportunità che detenevano nello sviluppo di queste strutture globali.
La posta in gioco era composta da ingenti capitali economici ma l’interesse di modellare a loro immagine e somiglianza l’intera cultura moderna era l’elemento maggiormente perseguibile.
Vennero fatte diverse scelte strategiche: finanziamenti statali per lo sviluppo di strutture scolastiche / sanitarie e la liberalizzazione delle comunicazioni, i primi erano volti allo sviluppo di servizi basilari e la seconda scelta diretta a fermare eventuali comportamenti di oligopolio.

Il Vecchio Continente:
Pur con un approccio di base differente la Comunità Economica Europea avviò il suo cammino in modo differente con la speranza di seguire un comportamento equilibrato nelle sue scelte decisionali.
Esisteva un progetto del 1985 denominato Cosine (Cooperation for Open Systems Interconnection in Europe) per la costituzione di una rete europea integrando realtà nazionali già esistenti.
Il processo evolutivo di globalizzazione e sviluppo delle comunicazioni venne riassunto in un rapporto nel 1992, un documento importante che ha dettato le linee di comportamento per la liberalizzazione delle comunicazioni a partire dal gennaio 1998.
Nell’ambito Italiano le direttive comunitarie sono state rispettate e si è visto il passaggio in fasi differenti da un unico ente di gestione delle telecomunicazioni ad una situazione aperta gestita da un numero di compagnie private e supervisionata dall’autorità governativa.

La situazione italiana:
La storia di Internet nei periodi fino ad ora considerati, è stata molto periferica e il mondo telematico si è mosso al di fuori dei protocolli TCP/IP e della rete delle reti.
Questa situazione era comune sia nel contesto accademico che nella telematica amatoriale e commerciale.
Nonostante questo isolamento tecnologico vi era un panorama variegato diviso tra Videotel, Fidonet, la rete dell’Istituto Nazionale di Fisica Nucleare (INFNet) e successivamente la rete accademica del GARR, la rete I2U degli utenti UNIX (l’origine di Iunet) e molte BBS cittadine.
L’inizio della telematica nazionale può determinarsi con l’anno 1986, anno in cui la SIP inizio a commercializzare Videotel, un servizio telematico a struttura centralizzata al quale si accedeva tramite le normali reti telefoniche.
A questo primo approccio susseguì la rete Fidonet, una struttura decentralizzata vicina al modello di Baran e fondamentalmente basato su un sistema di messaggistica.
Fidonet era un’aggregazione di BBS4 con supporto per la tecnologia FTN, sistemi facilmente SIP, servizio telefonico nazionale poi diventato Telecom Italia.
Le BBS sono genericamente sistemi telematici nei quali un gruppo di utenti può accedere a un ristretto insieme di file.
Bullettin Board System, sistemi telematici centralizzati nei quali uno o più macchine server fungono da centrali per lo smistamento di comunicazioni tra gli utenti.

Le comunità virtuali:
Implementabili su semplici e comuni personal computer che tramite chiamate telefoniche notturne e automatizzate permettevano lo scambio dei messaggi sui nodi di riferimento.
La relativa facilità con la quale era possibile implementare un nodo di questa rete si diffuse rapidamente alimentando la primordiale cultura underground nazionale.
Al di fuori di Fidonet furono di particolare rilievo le esperienze di BBS come Agorà, legata al Partito Radicale, e MCLink, servizio complementare alla rivista MC-microcomputer, entrambe localizzate a Roma. INFNet (Istituto Nazionale di Fisica Nucleare) fu la prima istituzione scientifica italiana a disporre di strutture telematiche già dal 1978; nel 1987 la rete era cresciuta e contava 118 nodi collegati e fu anche il primo centro di ricerca a disporre di una connessione permanente a Internet.
Nel 1988 la situazione accademica italiana venne riconsiderata totalmente e venne costituito il GARR (Gruppo Armonizzazione Reti per la Ricerca), organizzazione coordinata dal Ministero della Ricerca scientifica alla quale era assegnato il compito di amministrare e sviluppare l’interconnessione tra le reti delle diverse università italiane. Gli iniziali poli della dorsale, o backbone, collegati ad alta velocità furono Milano, Bologna, Pisa, Roma e Bari ma presto la rete fu ampliata ad altre 50 centri universitari.
Il primo Internet provider italiano fu Iunet nato grazie all’associazione I2U degli utenti Unix Italiani, raccordo italiano con la rete Eunet che legava esperti di Unix, matematici e informatici.
Iunet è stata la prima rete Internet italiana non legata al GARR nata inizialmente senza finalità commerciali.
Nel 1994 nacque a Milano Iunet SPA acquisita da Olivetti Telemedia e successivamente da Infostrada.
A conclusione di questa anteprima nazionale sul mondo telematico risalta che la propria popolazione era molto variegata comprendendo semplici smanettoni domestici o ricercatori universitari,soluzioni semplici come Videotel o reti ad alta velocità con servizi molto specializzati anche se i tassi di diffusione di questi servizi era tra i più bassi in Europa.
La telematica ha cambiato la società modificando i comportamenti di quest’ultima a un livello superiore rispetto a qualsiasi altra tecnologia.
Come si è visto in questo capitolo, Internet è un progetto che ha radici molto lontane e in questo arco di tempo la rete si è evoluta per rispondere alle esigenze delle persone e delle aziende che investono in questa infrastruttura con un elemento in comune: la comunicazione.
Anche il software libero e Linux, in particolar modo, ha creato una propria comunità di utenti e successivamente tratteremo questo argomento nel dettaglio.

Netiquette:
Come ogni comunità sociale che si forma, anche le comunità virtuali hanno una propria regolamentazione dei comportamenti.
La Netiquette, come viene chiamata, è una forma di "educazione" che porta a rispettare e proteggere le interazioni tra le persone in rete.
A titolo di esempio, possiamo citare come un caso estraneo alla Netiquette l’uso improprio di uno strumento come la posta elettronica per fare pubblicità commerciale.
Questo fenomeno chiamato "spam" è stato largamente combattuto negli U.S.A. e l’Europa inizia a risentirne il contraccolpo in seguito alla crescita dei servizi di vendita online.
Un altro caso di Netiquette può essere l’interazione che avviene tra un gruppo di persone in chat (IRC), dove comportamenti scorretti di alcuni soggetti possono limitare o interrompere i rapporti con le altre persone.

Servizi e strumenti di comunicazione:
La nascita e lo sviluppo della rete ha creato rapporti di comunicazione e servizi relativi. Diversi sono gli strumenti sviluppati per lo svolgimento delle attività quotidiane e di seguito vengono presentati alcuni tra i più importanti.

Posta elettronica:
La posta elettronica (e-mail) è lo strumento più diffuso ed importante della rete che permette alle persone di comunicare tra loro tramite semplici messaggi testuali o messaggi ricchi di elementi multimediali come è possibile al giorno d’oggi con gli attuali strumenti software esistenti.
Le persone abituate a lavorare con sistemi operativi di tipo Unix sono vicine alla messaggeria digitale da sempre presente in sistemi multi-utenti.
Non è un caso che la forma degli indirizzi e-mail sia la stessa che rappresenta un utente collegato @ (at, presso) un sistema.
Anche se sono andate perse tutte le caratteristiche tattili delle vecchie lettere cartacee, utilizzare la posta elettronica vuol dire utilizzare un mezzo veloce con costi ridotti e con la possibilità di trasferire file come allegati.

Newsgroup:
I newsgroup sono gruppi di discussione divisi per argomento dove è possibile spedire un proprio messaggio in una bacheca virtuale pubblica dove altre persone potranno leggerlo ed eventualmente rispondere.
E’ una comunicazione uno-a-molti che tra le sue origine dal lontano 1979 quando alcuni studenti informatici delle università della Duke University e della University of North Carolina ne implementarono la struttura per consentire lo scambio di messaggi tra le due comunità informatiche al margine di ARPANET.
La caratteristica che rivoluzionò a suo tempo questo servizio fu la possibilità di organizzare molteplici discussioni pubbliche su argomenti specifici non localizzate o controllate in siti centrali ma diffuse e sincronizzate tra i vari sistemi che supportavano il servizio.

IRC (Internet Relay Chat):
Probabilmente è il servizio telematico che affascina maggiormente le persone perchè permette di comunicare in tempo reale con altre persone sia in modo diretto che in forma pubblica ad un gruppo di persone presenti in determinati canali, aggregazioni che si possono liberamente creare con estrema facilità.
IRC originariamente nacque come protocollo di conferenza testuale per BBS nell’agosto del 1988 e vide la sua definzione ufficiale con il documento RFC 1459 del 1993.
L’originale sviluppatore del sistema di comunicazione IRC fu il finlandese Jarkko Oikarinen ma l’interesse per questa soluzione software attrasse moltissimi sviluppatori e crebbe rapidamente implementando numerose caratteristiche e servizi.
Il primo server disponibile su Internet fu "tolsun.oulu.fi" il quale funziona ancora nel momento in cui scrivo questa breve parentesi storica.
Al giorno d’oggi esistono numerose famiglie di server IRC sparsi in tutto il mondo e tra queste la più diffusa sul nostro territorio nazionale è IRCNET.

Il Web e gli ipertesti:
E’ il servizio Internet più recente ma anche quello che ha avuto maggior sviluppo negli ultimi anni.
Utilizzando un navigatore o browser è possibile visualizzare pagine ipertestuali di informazione con il supporto di immagini, suoni, animazioni.
Per definire cosa sia un ipertesto prendiamo in considerazione le seguenti definizioni:

"Testo che non costituisce una singola sequenza e che può essere letto in diversi ordini; specialmente testo e grafica [...] che sono interconnessi in modo che il lettore del materiale (un sistema informatico) può interrompere la lettura del documento in determinati punti per consultare altro materiale correlato." (Oxford Dictionary) e anche la seguente:
"Termine coniato da Ted Nelson attorno al 1965 per designare un insieme di documenti contenenti riferimenti incrociati i quali permettono al lettore di muoversi facilmente da un documento all’altro" (Free On Line Dictionary of Computing).
In sintesi gli ipertesti sono insiemi di documenti consultabili in modo non sequenziale attraverso un software (es. browser) che permette al lettore di muoversi agevolmente da un documento ad un altro documento correlato in modo discontinuo.
Sebbene il concetto di ipertesto risalga agli anni ’60, l’applicazione comune più diffusa ha preso piede con la nascita del Web, la ragnatela, progettata da Tim Berners-Lee al CERN di Ginevra tra il 1989 e il 1990.
Successivamente questo sistema si diffuse rapidamente passando da interfacce semplici e a caratteri a soluzioni software molto raffinate con supporto per elementi grafici e multimediali.

DNS:
Il DNS (Domain Name System) è lo strumento utilizzato per gestire una parte molto importante di Internet: la risoluzione dei nomi di dominio.
E’ doveroso analizzare, in questa sezione, due termini che spesso possono esser visti come identici.
Le parole in questione sono "Internet" con la lettera iniziale maiuscola e "internet".
Sebbene possa sembrare una finezza, la distinzione c’è ed è importante. Internet, con la lettera maiuscola, fa riferimento alla rete che iniziò con il progetto ARPAnet e continua oggigiorno come la confederazione di tutte le reti TCP/IP direttamente o indirettamente collegate al "backbone6" degli Stati Uniti.
La parola "internet" con tutte le lettere minuscole rappresenta tutte le reti, di piccole o grandi dimensioni, che utilizzano lo stesso protocollo di comunicazione. Ogni internet (lettere minuscole) non necessariamente dev’essere connessa a Internet (lettera maiuscola iniziale) e non necessariamente deve utilizzare tcp/ip come suo protocollo di base.
Le internet aziendali sono un esempio, come quelle di tipo Xerox XNS o DECnet.
Negli ultimi anni sono nati ulteriori nuovi termini più che altro spinti da politiche di marketing.
Il termine "intranet" rappresenta una rete aziendale che utilizza gli strumenti di Internet in un ambito ristretto. Parallelamente il termine "extranet" rappresenta la rete che unisce diverse compagnie tra loro, oppure una compagnia con i propri rivenditori.
Il browser è un programma che permette di accedere e consultare documenti tramite il protocollo HTTP.
Il primo browser grafico per il Web è stato Mosaic ed è stato sviluppato da Marc Andressen nel 1993.
Successivamente Andressen ha fondato la società Netscape attualmente (Mozilla Firefox).


Le origini del Domain Name System:
Si è già accennato ai passaggi storici da ARPAnet a Internet.
Nella primordiale rete esistente ogni computer collegato era caratterizzato da informazioni che lo identificavano in maniera univoca in rete. Il file che conteneva tutte queste informazioni era HOSTS.TXT ed era mantenuto dal Network Information Center dello SRI8.
Gli amministratori dei sistemi connessi in rete ARPAnet inviavano i propri cambiamenti al SRI-NIC e scaricavano successivamente il file HOSTS.TXT con le variazioni avvenute.
Era chiaramente un meccanismo macchinoso e lo divenne ancor più quando ARPAnet iniziò ad utilizzare il protocollo TCP/IP e la popolazione della rete crebbe enormemente.

A questo punto il metodo basato sul file HOSTS.TXT riscontrava diversi problemi:
  1. Collisione dei nomi era facile avere due nomi di computer identici in rete e questo si scontrava con il presupporto di univocità preposto.
  2. Consistenza: Mantenere aggiornato il file HOSTS.TXT divenne sempre più difficile visti i continui aggiornamenti che venivano richiesti.
  3. Traffico e carico: Gli strumenti presenti presso SRI-NIC divennero inefficienti a causa del traffico di rete incredibile e dell’alto carico che dovevano subire i processori dei Server presenti.
Le persone che governavano la rete ARPAnet cercarono una tecnologia valida per sostituire il metodo fino ad allora utilizzato, capace di scalare meglio le esigenze, ridurre il traffico in rete, facile da gestire e garante dell’integrità dei nomi di dominio esistenti. Nel 1984, Paul Mockapetris creò la basilare struttura del nuovo sistema e rilasciò in rete i documenti RFC 882 e 883 dove veniva descritto il Domain Name System, o semplicemente DNS.
La prima implementazione di DNS era chiamata JEEVES ma venne rapidamente susseguita da BIND, un software sviluppato per la versione di Unix BSD 4.310 da Kevin Dunlap.


Nomi di Dominio:
Un nome di dominio è una etichetta, un nome che viene associato ad un indirizzo IP in rete ed è rappresentato da un nome e un top-level domain, ad esempio:
istruzione.it.Dove "istruzione" è in questo caso un nome fittizio e ".it" rappresenta la nazionalità del dominio in questione.
Top-Level Domain Lo spazio dei nomi di dominio era diviso originariamente in 7 Top-Level:
  • ".com": Organizzazioni di carattere commerciale, come ad esempio Silicon Graphics (sgi.com), Sun Microsystems (sun.com)
  • ".edu": Istituti di educazione americani, come ad esempio U.C. Berkeley (berkeley.edu), Purdue University (purdue.edu).
  • ".gov": Organizzazioni governative, come ad esempio la NASA (nasa.gov), National Science Foundation (nsf.gov).
  • ".mil": Organizzazioni militari, come ad esempio l’esercito degli Stati Uniti, U.S. Army (army.mil) e la Marina, U.S. Navy (navy.mil).
  • ".net": Organizzazioni orientate alle tecnologie di networking, come ad esempio NSFNET (nsf.net).
  • ".org": Organizzazioni non commerciali, come ad esempio Electronic Frontier Foundation (eff.org).
  • ".int": Organizzazioni internazionali, come ad esempio la NATO (nato.int)
Non è un caso che l’orientamento dei top-level domain sia modellato principalmente attorno alle esigenze degli Stati Uniti; si ricorda che proprio quest’ultimi finanziarono il progetto ARPAnet, successivamente diventato Internet.
Lo sviluppo della rete ha mostrato le limitazioni degli originali top-level domain e a questi sono stati aggiunti i Domini Nazionali, ovvero una codifica di 2 lettere che identifica ogni singola nazione nel mondo secondo lo standard ISO 316611 .
L’Italia è rappresentata dal top-level domain ".it".

Il "Top-Level Domain" è rappresentato in ambienti Unix dal file /etc/hosts.
SRI è l’istituto della ricerca di Stanford a Menlo Park, California.
RFC o Request for Comments.
Sono documenti che introducono una nuova tecnologia sulla rete Internet.
Gli RFC sono distribuiti gratuitamente in rete e sono destinati agli sviluppatori che vogliono supportare o migliorare determinate tecnologie.
UNIX BSD 4.3 è stato sviluppato dall’Università della California a Berkeley.

Registrare un Nome di Dominio:
La gestione dei nomi di dominio è gestita in modalità differenti.
Nel caso di nomi di dominio che utilizzano gli originari 7 top-level domain la gestione era riservata fino a poco tempo fa esclusivamente all’InterNIC, un organo nazionale statunitense, mentre dopo una politica di deregulation ora è possibile usufruire di alternativi servizi da parte di imprese che si occupano appositamente di questi servizi telematici.
Per quel che riguarda i nomi di dominio ISO 3166 la gestione viene affidata a livello nazionale. In Italia la gestione del top-level domain it è gestita dal GARR, autorità al quale è necessario rivolgersi per la registrazione.

DNS in Breve
Il Domain Name System è una bancadati distribuita che permette il controllo locale dei nomi di dominio su segmenti della rete. Tramite un sistema di replica, le modifiche fatte su un determinato segmento di rete da parte degli amministratori incaricati vengono "copiate" e distribuite pubblicamente nella totalità dei computer collegati.
I programmi che gestiscono tuttora questi segmenti di rete sono denominati "Name Server" mentre sono "Resolver" i programmi che interrogano quest’ultimi per la risoluzione di un nome di dominio in rete.
Per chiarire maggiormente il sistema prendiamo un esempio base.
Un amministratore di DNS deve gestire un particolare dominio chiamato linux.it.
In questo dominio è presente un computer in rete che vogliamo chiamare erlug.linux.it. L’amministratore per fare questo deve agire sul Name Server presente sul dominio linux.it, aggiungere l’indirizzo ip e il nome erlug.linux.it.
Sarà compito del Name Server stesso, tramite il sistema che lo contraddistingue a replicare questi dati sui DNS di livello superiore finché l’informazione non è accessibile ad ogni computer in rete.
Come si può capire questo metodo scompone il traffico di rete e il carico dei processori a livelli.
La Gran Bretagna in accordo con lo standard ISO 3166 dovrebbe utilizzare il top-level domain di tipo gb, ma molte organizzazioni preferiscono utilizzare l’estensione uk, probabilmente per motivazioni di carattere politico.


F.A.Q.:
Domanda: "Devo utilizzare obbligatoriamente il DNS per collegarmi ad Internet?" Per la connessione ad Internet non è necessario questo parametro ma lo diventa se volete utilizzare la pagine web o accedere ai servizi offerti dalla rete.
Senza DNS dovreste conoscere gli indirizzi IP di ogni server in rete, mentre nel caso contrario basterebbe conoscere il nome di dominio e in automatico avviene la risoluzione.
E’ più semplice ricordarsi che per andare sul sito di ErLug (Emilia Romagna Linux User Group) basta aprire un browser e digitare l’indirizzo http://erlug.linux.it invece del numero IP che identifica il server in rete.

Domanda: "Cosa mi serve per poter gestire la posta elettronica?"
Se si desidera gestire una corrispondenza di posta elettronica è chiaramente necessario disporre di una propria casella postale per le risposte.
Esistono numerosi servizi che offrono gratuitamente caselle di posta elettronica.
Nel caso italiano esistono molti provider Internet che insieme alla connessione includono questo servizio.
Una volta ottenuta una casella postale servono pochi ulteriori parametri: il server SMTP, ovvero il servizio che gestisce la "spedizione" delle vostre e-mail. Esempio:
mail.provider.it
il server POP3 o IMAP per gestire la posta che arriva nella vostra casella postale.
E’ frequente trovare come server di questo tipo lo stesso utilizzato per la spedizione:
mail.provider.it
Il server di "spedizione" (SMTP o Simple Mail Transfer Protocol) non richiede parametri aggiuntivi per lo svolgimento delle proprie operazioni al contrario del server di "ricezione" (POP3) dove risiedono i vostri personali messaggi.
Per accedere a quest’ultimo con un programma di gestione della posta elettronica è necessario aggiungere il parametro che identifica l’utente (genericamente la parte iniziale del vostro indirizzo di posta) e una parola d’ordine (password) che solo voi conoscete.

Domanda: "Utilizzando posta elettronica e newsgroup è possibile scaricare dei virus nel proprio computer?"
Con la posta o le news è possibile trovare allegati dei file.
Guardatevi da questi se non conoscete chi ve li spedisce!
I virus sono particolari programmi che si insediano nel vostro computer alterando le operazioni basilari.
Vengono trasmessi attraverso file eseguibili (ad esempio i file .exe nel mondo Dos/Windows) o attraverso documenti particolari che possono includere linguaggi macro al proprio interno (ad esempio i file .doc o .xls).
Quest'ultimi sono chiamati "Macro Virus", viene decretato ogni anno che passa e la sua più famosa interpretazione è GNU/Linux, un sistema operativo molto performante, scalabile e sicuro, diffuso in tutto il mondo grazie alle proprie caratteristiche di qualità. Software vivo, liberamente usufruibile e distribuibile senza nessuna limitazione, un movimento che cresce e si diffonde tra le persone e il mondo professionale con una grande rapidità grazie alla rete Internet, la quale è stata ambiente incubatorio per lo stesso.

Share/Bookmark
Stampa il Post - Print this Post

Comments :

0 commenti to “ Linuxlandia ”
Related Posts with Thumbnails