lunedì 26 febbraio 2007
WINDOWS VISTA (AERO) VS LINUX UBUNTU (BERYL)
Definizione associata al video tratta da Wikipedia:
Windows Aero è la nuova shell visiva di Windows Vista; è un ambiente che offre maggiore raffinatezza visiva e facilità di utilizzo anche per chi non ha grande familiarità con il computer. La ricerca dei file è resa più agevole grazie alla nuova funzionalità di Ricerca istantanea e alle nuove icone "live" (anteprime scalabili) attraverso le quali è possibile visualizzare nella taskbar l'anteprima delle applicazioni aperte, la prima pagina di un documento, un'immagine del contenuto delle cartelle senza dovervi accedere. Permette la personalizzazione della trasparenza e del colore di ogni singola finestra. La funzione Flip 3D permette di mostrare le finestre aperte in cascata in un ambiente tridimensionale e selezionare quella voluta facendole ruotare con la rotellina o clickando su quella desiderata. La funzione Flip 2D invece mostra un'anteprima delle finestre aperte al centro dello schermo in 2 dimensioni. Questa nuova shell non sarà disponibile su tutte le versioni di Windows Vista. Mancherà infatti nella versione Home Basic. Con l'arrivo del 30 gennaio 2007 Microsoft rilascerà aggiornamenti per Aero che permetterà di sostituire i normali desktop background con dei video anche ad alta definizione.
Utilizza schede grafiche DX9 con processori 3D; perciò la CPU non è più impegnata a disegnare le finestre, perché fa tutto la scheda video e anche la memoria usata per memorizzare le finestre è quella della scheda video e quindi non viene sprecata RAM di sistema.
In molti sostengono che questa tanto decantata interfaccia innovativa, non faccia altro che copiare elementi da Mac OS X e da Xgl (interfaccia grafica 3D di GNU/Linux).
Tutti i testi sono disponibili nel rispetto dei termini della GNU Free Documentation License.
domenica 25 febbraio 2007
Fedora Core 5 in esecuzione sulla Playstation 3
Definizione associata al video tratta da Wikipedia:
Fedora Core è una distribuzione Linux curata dal Progetto Fedora, un progetto Open Source sponsorizzato (ma non direttamente supportato) da Red Hat e supportato dalla community. L'obiettivo è quello di lavorare con la community di Linux per creare un sistema operativo completo, utilizzando esclusivamente software liberi e forum pubblici con processi aperti. Questo porta a un continuo aggiornamento delle distribuzioni, aggiornamento che è diventato molto semplice, anche da una distribuzione all'altra. È un settore adibito a nuove tecnologie che in futuro potrebbero essere integrate all'interno dei prodotti di Red Hat.
Fedora è indicata per qualsiasi utilizzo poiché contiene tutti gli strumenti per lavorare in ambiente server senza tralasciare una serie di tool grafici per la configurazione, utili per gli utenti alla ricerca di un desktop user-friendly. Basata sulla ricerca del massimo grado di aggiornamento è rilasciata su base fissa semestrale con le versioni più recenti di ogni pacchetto, compreso il kernel.
Nel periodo compreso da settembre 2004 a marzo 2005 Fedora Core è stata installata su 405.682 siti, con un incremento del 122% per il periodo preso in considerazione.
La storia di Fedora è in parte la storia di Red Hat, la società fondata da Bob Young e Marc Ewing.
Tutti i testi sono disponibili nel rispetto dei termini della GNU Free Documentation License.
martedì 20 febbraio 2007
Aggiornare Windows XP a Windows Vista
Definizione associata al video tratta da Wikipedia:
Windows Vista (noto precedentemente con il nome in codice Longhorn) è la più recente versione dei sistemi operativi Windows della famiglia Microsoft. La versione "RTM" (Release To Manufacture), talvolta chiamata "Gold", è stata rilasciata l'8 novembre 2006. Il 16 novembre 2006 la versione definitiva inglese è stata resa disponibile per il download agli abbonati MSDN. La versione italiana è invece stata resa disponibile dal 2 dicembre 2006, sempre su MSDN. Il rilascio della versione finale di questo sistema operativo per le aziende che hanno sottoscritto contratti per "Volume License" è stato compiuto il 30 novembre 2006; mentre per i clienti Retail e OEM è stato rilasciato al pubblico due mesi dopo: il 30 gennaio 2007.
È prevista anche una versione server del nuovo sistema operativo, con nome in codice "Longhorn Server".
Il nome definitivo di quello che era fino ad allora conosciuto col nome in codice Longhorn è stato divulgato da Microsoft prima del rilascio della versione Beta 1. Questa notizia ha colto di sorpresa la comunità informatica, sia perché in genere Microsoft tarda ad annunciare il nome finale dei sistemi operativi, sia per la singolarità del nome che rompe qualsiasi legame con il passato.
Il termine vista deriva dal verbo latino vĭdēre (in italiano vedere), inoltre in lingua inglese e in diverse lingue romanze la parola vista significa, come in italiano, veduta, visuale: questo dovrebbe simboleggiare sia il nuovo aspetto grafico del sistema operativo, sia la possibilità che offre di avere una nuova visuale dei dati contenuti nel proprio computer.
Gli appassionati hanno inoltre dato diverse interpretazioni a questo nome, per esempio che la versione di Windows Vista è la numero 6.0 e le prime 2 iniziali del nome, "Vi", corrispondono al numero romano VI.
Il nome in codice Longhorn derivava dal nome di un bar di una località sciistica nei pressi di Seattle, sede della Microsoft. Questa località si trova fra il monte Whistler (nome in codice di Windows XP) e il monte Blackcomb (precedente nome in codice di Windows codename Vienna, una futura versione di Microsoft Windows).
Testo disponibile nel rispetto dei termini della GNU Free Documentation License.
Come creare un logo in stile Web 2.0
Definizione associata al video tratta da Wikipedia:
Un logo, o logotipo, è una rappresentazione grafica atta a rappresentare, in genere, un prodotto o un marchio di fabbrica.
Più precisamente per logotipo s'intende il carattere (la font) con cui un'azienda si differenzia da un'altra. Un logotipo non è composto da disegni o da immagini, altrimenti sarebbe un pittogramma o un ideogramma.
La nascita dell'Era dell'Informazione ha cambiato il volto del logo. Oggi il grande pubblico è sempre più interessato al significato dei simboli visivi, in particolar modo di quelli usati come logo. Caratteristiche fondamentali di un buon logo sono la leggibilità ed il buon riconoscimento della marca.
A causa della diversità dei prodotti e dei servizi venduti oggi, l'esigenza di nuovi logo unici è ancora più forte, poiché i logo sono il fondamento dell'immagine visiva dell'azienda. Un marchio professionalmente progettato è il fondamento per qualunque azienda commerciale o per un prodotto che si desidera promuovere attraverso tutti i media. I logo si sono trasformati nel volto commerciale dell'azienda, la corporate identity.
Testo disponibile nel rispetto dei termini della GNU Free Documentation License.
lunedì 19 febbraio 2007
La storia del Web in 5 minuti
Guarda anche:
Un UFO immortalato da google maps? Guarda il video
Un PC sott'olio come le olive? Guarda il video
CPU a 5Ghz raffreddata con azoto liquido Guarda il video
Definizione associata al video tratta da Wikipedia:
Con il nome Web 2.0 o Internet 2.0 si intende un generico stato di evoluzione di Internet e in particolare del World Wide Web.
Alcuni hanno tentato di definire il Web 2.0 come una serie di siti web con interfaccia, facilità e velocità d'uso tali da renderli simili alle applicazioni tradizionali che gli utenti sono abituati a installare nei propri computer.
Spesso vengono usate tecnologie di programmazione particolari, come AJAX (Gmail usa largamente questa tecnica per essere semplice e veloce) o Adobe Flex.
I propositori del termine Web 2.0 affermano che questo differisce dal concetto iniziale di web, retroattivamente etichettato Web 1.0, perché si discosta dai classici siti web statici, dall'e-mail, dall'uso dei motori di ricerca, dalla navigazione lineare e propone un World Wide Web più dinamico e interattivo.
Un esempio potrebbe essere il Social Commerce, l'evoluzione dell'E-Commerce in senso interattivo, che consente una maggiore partecipazione dei clienti , attraverso blogs, forum, sistemi di feedback ecc.
Gli scettici replicano che il termine Web 2.0 non ha un vero e proprio significato, in quanto questo dipende esclusivamente da ciò che i propositori decidono che debba significare per cercare di convincere i media e gli investitori che stanno creando qualcosa di nuovo e migliore, invece di continuare a sviluppare le tecnologie esistenti.
Testo disponibile nel rispetto dei termini della GNU Free Documentation License.
domenica 18 febbraio 2007
Il volto di un Bug
Guarda anche:
Un UFO immortalato da google maps? Guarda il video
Un PC sott'olio come le olive? Guarda il video
CPU a 5Ghz raffreddata con azoto liquido Guarda il video
Definizione associata al video tratta da Wikipedia:
Nell'informatica il termine bug (dall'inglese "insetto") identifica un errore nella scrittura di un software, che causa un suo funzionamento errato o comunque diverso da quello che l'autore ha previsto ed in alcuni casi anche il suo blocco totale; meno comunemente, il termine bug può indicare un difetto di progettazione in un componente hardware che ne causa un comportamento imprevisto o comunque diverso da quello specificato dal produttore.
I bug in un programma possono essere in certi casi particolarmente gravi a tal punto da rendere vulnerabile ad attacchi informatici anche il computer che ospita il software.
- Bug famosi nel mondo informatico sono i cosiddetti buffer overflow.
L'uso del termine bug è legato ad un curioso aneddoto risalente ai tempi pionieristici dell'informatica: nell'agosto del 1945 il tenente Hopper ed il suo gruppo stavano cercando la causa del malfunzionamento di un computer Mark II quando, con stupore, si accorsero che una falena si era incastrata tra i circuiti. Dopo aver rimosso l'insetto, il tenente incollò la falena rimossa sul registro del computer e annotò: «1545. Relay #70 Panel F (moth) in relay. First actual case of bug being found». Questo registro è conservato presso lo Smithsonian National Museum of American History.
- Un noto bug in un componente hardware è quello che nel 1994 afflisse l'allora neonato microprocessore Pentium, che in certi casi restituiva risultati errati anche in semplici calcoli aritmetici. I primi Pentium infatti avevano problemi nella FPU (Floating Point Unit, Unità a Virgola Mobile o coprocessore matematico come si diceva in precedenza) per cui erravano appunto alcune operazioni decimali. In un primo tempo venne rilasciato un software che escludeva questa unità ed in seguito tutti i microprocessori vennero sostituiti.
In realtà il termine bug nel senso di problema tecnico è stato usato almeno dal 1870, è citato in questo senso in una lettera di Edison del 1878, probabilmente questo uso del termine è di origine scozzese.
Testo disponibile nel rispetto dei termini della GNU Free Documentation License.
iAlertU L'antifurto per MAC
Per ulteriori info visitate il sito di iAlertU
Guarda anche:
Un UFO immortalato da google maps? Guarda il video
Un PC sott'olio come le olive? Guarda il video
CPU a 5Ghz raffreddata con azoto liquido Guarda il video
Definizione associata al video tratta da Wikipedia:
Macintosh, abbreviato come Mac, è una popolare famiglia di personal computer costruiti a partire dal 1984 dalla Apple Computer Inc. (Cupertino, California) che sfruttano il sistema operativo MacOS (oggi Mac OS X). Il Mac originale è stato il primo computer con un'interfaccia grafica e un mouse di serie, a conquistare un vasto pubblico di utenti, e a entrare prepotentemente nel mercato. Con questo grande successo Apple riscattò l'iniziale tiepida accoglienza riservata all'Apple Lisa, il suo predecessore, e dimostrò che l'idea del concetto di scrivania virtuale, che si basava su di una interfaccia WIMP (Windows, Icons, Mouse, Pointer) era vincente.
Soprattutto Apple con questa mossa riuscì a dimostrare che il paradigma WIMP veniva apprezzato a livello mondiale anche da neofiti o da professionisti che non fossero addetti del settore dell'informatica, che un'interfaccia grafica faceva presa ed attirava la curiosità di grandi masse, e che infine, la semplicità ed intuitività del concetto di mouse associato ad una GUI desktop (appunto "scrivania" in inglese) apriva finalmente l'informatica domestica, hobbyistica e professionale ad un pubblico che, fino a quel momento, era stato timido e restio ad avvicinarsi a quel "misterioso" oggetto (così allora veniva considerato) che è il personal computer, visto come oggetto di elite e non di uso comune.
Testo disponibile nel rispetto dei termini della GNU Free Documentation License.
sabato 17 febbraio 2007
3D Desktop! TouchScreen and XGL on Linux (parte 2)
Guarda anche:
Un UFO immortalato da google maps? Guarda il video
Un PC sott'olio come le olive? Guarda il video
CPU a 5Ghz raffreddata con azoto liquido Guarda il video
Definizioni associate al video tratte da Wikipedia:
XGL, acronimo di X over OpenGL, è un'architettura di X Window System progettata per sfruttare le moderne schede grafiche attraverso i loro driver OpenGL ed è sviluppata sulla base di OpenGL utilizzando glitz. Supporta l'accelerazione in hardware di tutto X, applicazioni OpenGL e XVideo, nonché effetti grafici grazie ad un "compositing window manager" come Compiz o Beryl. Il progetto fu iniziato dal dipendente di Novell David Reveman e rilasciato la prima volta il 2 gennaio 2006.
In alcune demo [1], Novell mostra esempi con effetti di trasparenza applicati alle finestre delle applicazioni, possibilità di miniaturizzare al volo la riproduzione di un video senza perdere frame e un'interfaccia grafica tridimensionale a forma di prisma che permette di tenere sott'occhio da 4 a 25 desktop.
X Window System, noto in gergo come X11 o ancor più semplicemente X, è di fatto il gestore grafico standard per tutti i sistemi Unix (Linux e BSD compresi); è mantenuto dalla X.Org Foundation e rilasciato sotto una licenza di software libero.
Supportato seppur marginalmente da alcuni tra i maggiori produttori di hardware grafico, è ormai usato secondariamente anche da altri sistemi operativi (es. Mac OS X, che usa nativamente Quartz) per permettere il funzionamento del software progettato per questo sistema grafico, come la suite da ufficio OpenOffice e Gimp.
X fornisce l'ambiente i componenti di base per le interfacce grafiche, ovvero il disegno e lo spostamento delle finestre sullo schermo e l'interazione con il mouse e la tastiera. X non gestisce invece l'interfaccia grafica utente o lo stile grafico delle applicazioni: tutti questi aspetti sono gestiti direttamente da ogni singola applicazione.
Un'altra caratteristica molto importante è la trasparenza di rete: la macchina dove girano i programmi (client) non deve essere per forza la macchina locale (display server). I termini "server" e "client" vengono spesso confusi: per X il server è il display locale dell'utente, non una macchina remota. Questo permette anche di visualizzare sullo stesso display applicazioni che vengono eseguite su diversi host, oppure che su un host vengano eseguite applicazioni la cui interfaccia grafica finisce su diversi display.
X è nato al MIT nel 1984. La vesione attuale del protocollo, X11, è stata ultimata nel settembre del 1987. Attualmente la X.Org Foundation implementa il protocollo X versione 11 in XOrg e l'ultima versione disponibile è la 7.1.
Testi disponibili nel rispetto dei termini della GNU Free Documentation License.
giovedì 15 febbraio 2007
BumpTop un desktop 3D sperimentale
Per ulteriori informazioni visitate il sito di BubpTop
Definizione associata al video tratta da Wikipedia:
La Computer grafica 3D è un ramo della Computer grafica che si basa sull'elaborazione di modelli virtuali in 3D da parte di un computer. Essa viene utilizzata insieme alla computer animation nella realizzazione di immagini visuali per cinema o televisione, videogiochi, ingegneria, usi commerciali o scientifici. Il termine può anche essere riferito ad immagini prodotte con lo stesso metodo.
La Computer grafica 3D è basicamente la scienza, lo studio e il metodo di proiezione della rappresentazione matematica di oggetti tridimensionali tramite un'immagine bidimensionale attraverso l'uso di tecniche come la prospettiva e l'ombreggiatura (shading) per simulare la percezione di questi oggetti da parte dell'occhio umano. Ogni sistema 3D deve fornire due elementi: un metodo di descrizione del sistema 3D stesso ("scena"), composto di rappresentazioni matematiche di oggetti tridimensionali, detti "modelli", e un meccanismo di produzione di un'immagine 2D dalla scena, detto "renderer".
Modelli 3D:
Oggetti tridimensionali semplici possono essere rappresentati con equazioni operanti su un sistema di riferimento cartesiano tridimensionale: per esempio, l'equazione x²+y²+z²=r² è perfetta per una sfera di raggio r. Anche se equazioni così semplici possono sembrare limitative, l'insieme degli oggetti realizzabili viene ampliato con una tecnica chiamata geometria solida costruttiva (CSG, constructive solid geometry), la quale combina oggetti solidi (come cubi, sfere, cilindri, ecc.) per formare oggetti più complessi attraverso le operazioni booleane (unione, differenza e intersezione): un tubo può ad esempio essere rappresentato come la differenza tra due cilindri di diametro differente.
Anche questa tecnica non risulta però sufficiente a descrivere con equazioni semplici una gran quantità di oggetti, per cui non è di utilizzo comune. Per modellare superfici curve in modo arbitrario si possono usare le patch, ovvero l'estensione delle spline, che approssimano curve continue, alle tre dimensioni. Le patch più comunemente usate sono in pratica basate su spline NURBS.
L'impiego di equazioni matematiche pure come queste richiede l'utilizzo di una gran quantità di potenza di calcolo, e non sono quindi pratiche per le applicazioni in tempo reale come videogiochi e simulazioni. Una tecnica più efficiente, ma che permette un minore livello di dettaglio, per modellare oggetti consiste nel rilevare solo alcuni punti dell'oggetto, senza informazioni sulla curva compresa tra di essi. Il risultato è chiamato modello poligonale. Questo presenta "faccette" piuttosto che curve, ma sono state sviluppate tecniche di rendering per ovviare a questa perdita di dati.
Delle superfici poligonali di un modello senza informazioni sulla curvatura possono essere comunque raffinate per via algoritmica in superfici perfettamente curve: questa tecnica è chiamata "superfici di suddivisione", perché la superficie viene suddivisa con un processo iterativo in più superfici, sempre più piccole, fedeli alla curva interpolata e che vanno a comporre un'unica superficie sempre più liscia.
Testo disponibile nel rispetto dei termini della GNU Free Documentation License.
Un UFO Immortalato da Google Maps?
UFO Captured On Google Maps - video powered by Metacafe
Definizionie associata al video tratta da wikipedia:
Google Earth, è un software che genera una immagine virtuale della Terra utilizzando immagini satellitari, fotografie aeree e dati topografici memorizzati in una piattaforma GIS. Il programma e distribuito gratuitamente dalla società Google. Inizialmente il programma si chiamava Keyhole e era sviluppato dalla Keyhole, inc. ma nel 2004 la società venne acquisita da Google e il software rinominato di conseguenza. Il programma richiede un sistema operativo Microsoft Windows, Mac OS X o Linux.Google Earth è un'applicazione grafica tridimensionale che permette di visualizzare fotografie aeree e satellitari della Terra con un dettaglio molto elevato. Nelle principali città del pianeta il programma è in grado di mostrare immagini con una risoluzione inferiore al metro quadrato. Google inizialmente ha acquisito la società Keyhole, inc che produceva l'omonimo programma e in seguito ha fuso il programma Keyhole con il servizio Google Maps in modo da utilizzare tutte le mappe e le informazioni utilizzate dal servizio Maps. Il programma non consente solamente di visualizzare le informazioni ma consente anche al singolo utente di immettere delle informazioni aggiuntive che vengono visualizzate dal programma e che possono essere condivise con gli altri utilizzatori del programma sparsi per il pianeta.
Google Earth può essere utilizzato fornendogli coordinate geografiche, indirizzi o semplicemente navigando sul pianeta con il mouse. La maggior parte delle grandi città sono disponibili in alta risoluzione in modo da potere vedere gli edifici, le strade e le macchine presenti. Il livello di risoluzione dipende dall'importanza del luogo infatti la maggior parte della crosta terrestre è coperta con una risoluzione di 15 metri.
Google Earth si appoggia inoltre ai dati forniti dalla NASA e rilasciati nel pubblico dominio. Questi dati consentono una ricostruzione accurata della maggior parte delle catene montuose mondiali. In aggiunta il programma può sovrapporre alle immagini la ricostuzione tridimensionale dei principali edifici di molte città statunitensi.
Molte persone utilizzano questo programma aggiungendovi informazioni e dati riguardanti le città o i luoghi di interesse.
Google Earth è giunto alla versione 4 beta, rilasciata nel giugno 2006, ed è disponibile per i sistemi operativi Microsoft Windows 2000/XP, per Mac OS X 10.3.9 e successivi e per Linux.
Inoltre, da maggio 2006, Google ha reso disponibile i dati dell'Italia, come la ricerca degli indirizzi, delle attività commerciali e dei percorsi, che fino a poco tempo fa erano abilitati solo in Inghilterra e Stati Uniti. Ad esempio se si digita "cinema rimini" nella casella di ricerca, il programma trova automaticamente tutti i cinema di Rimini.
Testo disponibile nel rispetto dei termini della GNU Free Documentation License.
Up pc sott'olio come le olive?
Definizione associata al video tratta da Wikipedia:
L'espressione modding o case modding si riferisce alla pratica di modificare il case di un computer, soprattutto allo scopo di migliorarne e personalizzarne l'estetica. Un esempio classico di modding consiste nell'aprire nel fianco del case una finestra che consente di osservare i componenti interni del PC (in questo senso, il modding potrebbe avere la valenza non secondaria di mostrare la potenza o la qualità dei componenti installati).Quando i computer divennero accessibili al grande pubblico, la maggior parte dei case erano prodotti in un uniforme colore beige. La beige box era concepita come componente esclusivamente funzionale, e il suo design non appariva influenzato, se non in modo estremamente superficiale, da considerazioni di tipo estetico.
Fu l'iMac Apple il primo personal computer a presentarsi al pubblico con uno chassis dall'estetica sofisticata e accattivante. Diversi costruttori di PC raccolsero la sfida, e nel mercato iniziarono ad apparire case di colore nero, grigio antracite e altri colori; iniziarono a essere impiegati led di colori fluorescenti oltre ai tradizionali "rosso", "verde" o "giallo".
In questo contesto si sviluppò l'interesse degli utenti per l'estetica del proprio computer. Se l'espressione modding, in senso stretto, dovrebbe riferirsi a una modifica del case apportata (in modo creativo e individuale) dall'appassionato, in senso lato si intende come "modding" anche la pura e semplice scelta di componenti e accessori "accattivanti" fra quelli messi a disposizione dal mercato.
Col termine "modding" si intende quindi contemporaneamente un mercato di componenti hardware (caratterizzati dal design non banale) e l'attività amatoriale del "modificatore" che non raramente impiega componenti non forniti direttamente dal mercato (o impiega in modo creativo tali componenti). Questi due contesti si influenzano a vicenda. Per esempio, una delle modifiche più frequenti apportate dagli appassionati ai case era l'apertura di una "finestra" su uno dei fianchi del case stesso, allo scopo di rendere visibile l'hardware interno del computer; dal 2000 in avanti, diversi produttori di hardware hanno incluso questa caratteristica nel progetto di numerosi modelli di case.
Testo disponibile nel rispetto dei termini della GNU Free Documentation License.
CPU a 5Ghz raffreddata con azoto liquido
Definizione associata al video tratta da Wikipedia:
La CPU (acronimo di Central Processing Unit, detta comunemente processore) è l'implementazione fisica di uno dei due componenti della macchina di Turing (l'altro è la memoria).Compito della CPU è quello di leggere le istruzioni e i dati dalla memoria ed eseguire le istruzioni; il risultato della esecuzione di una istruzione dipende dal dato su cui opera e dallo stato interno della CPU stessa, che tiene traccia delle passate operazioni.
In base all'organizzazione della memoria si possono distinguere due famiglie di CPU:
Testi disponibile nel rispetto dei termini della GNU Free Documentation License.
- con architettura Von Neumann classica, in cui dati ed istruzioni risiedono nella stessa memoria (è dunque possibile avere codice automodificante). Questa architettura è la più comune, perché è più semplice e flessibile.
- con architettura Harvard: i dati e le istruzioni risiedono in due memorie separate. Questa architettura garantisce migliori prestazioni poiché le due memorie possono lavorare in parallelo ma è più complessa da gestire. È tipicamente utilizzata nei DSP.
mercoledì 14 febbraio 2007
Upgrade e manutenzione di un PC (Funny Video)
Definizione associata al video tratta da Wikipedia
La scheda madre (in inglese motherboard - mainboard-MB o M/B) o scheda di Sistema è una parte fondamentale di un moderno personal computer: raccoglie in sé tutta la circuiteria elettronica di interfaccia fra i vari componenti principali e fra questi e i bus di espansione e le interfacce verso l'esterno. È responsabile della trasmissione e temporizzazione corretta di molte centinaia di segnali diversi, tutti ad alta frequenza e tutti sensibili ai disturbi: per questo la sua buona realizzazione è un fattore chiave per la qualità e l'affidabilità dell'intero computer.
Particolare di una scheda madre Socket 370
Particolare di una scheda madre Socket 370
È composta di un circuito stampato estremamente complesso, ricavato da un sandwich di strati di vetronite e rame: generalmente una scheda madre può avere da quattro a sei strati di rame. In questi sono ricavate le piste che collegano i componenti, che devono essere calcolate con molta cura: alle frequenze normalmente adoperate dalle CPU e dalle memorie RAM in uso oggi, infatti, la trasmissione dei segnali elettrici non si può più considerare istantanea ma deve tenere conto dell'impedenza propria della pista di rame e delle impedenze di ingresso e di uscita dei componenti connessi, che influenzano il tempo di volo dei segnali da un punto all'altro del circuito.
Su questo circuito stampato vengono saldati una serie di circuiti integrati, di zoccoli e di connettori; gli integrati più importanti sono il chipset che svolge la gran parte del lavoro di interfaccia fra i componenti principali e i Bus di espansione, la rom (o PROM, EEPROM o simile) il Socket per il processore e i connettori necessari per il montaggio degli altri componenti del PC e delle schede di espansione. La struttura attuale delle schede di sistema dei computer è il frutto di un'evoluzione tecnologica che ha portato a definire una architettura di sistema valida, in linea di massima, per tutti i sistemi di classe personal computer o di potenza paragonabile.
Testo disponibile nel rispetto dei termini della GNU Free Documentation License.
martedì 13 febbraio 2007
Come creare la propria suoneria per il cellulare
Questo video mostra i passaggi necessari per realizzare una suoneria da trasferire nel nostro cellulare utilizzando per l'appunto Audacity.
Make Your Own Ringtones - video powered by Metacafe
Definizione correlata al video tratta da Wikipedia
La suoneria è un suono proveniente da un telefonino per indicare una chiamata in arrivo. Il termine è molto spesso utilizzato per riferisi ad un suono personalizzabile disponibile su un telefonino. Questa possibilità originariamente era fornita perché la gente fosse in grado di determinare se il loro telefono stava suonando quando si trovavano in compagnia di altri possessori di cellulari. I telefoni più nuovi possono utilizzare piccoli brani musicali come suonerie e la vendita di questi ultimi è diventato uno dei principali settori dell'industria musicale. Le campagne pubblicitarie basate sulle suonerie sono diventate molto popolari, sebbene abbiano attratto un grande movimento di critiche.
Un telefono suona solo quando uno speciale "segnale di chiamata" è trasmesso. Per i telefoni ordinari, il segnale di chiamata è un'onda da 90-volt 20-hertz AC generata dall'interruttore al quale è attaccato il telefono. Nei telefoni cellulari, il segnale di chiamata è uno specifico segnale di radio frequenza.
L'alternativa alla suoneria è la vibrazione. È particolarmente consigliata:
* in ambienti rumorosi
* in luoghi dove la suoneria può disturbare
* per udito debole
Tipi di suoneria
Monofonica
I primi cellulari avevano la capacità di riprodurre solo suonerie monofoniche, piccole suonerie suonate con semplici toni. Molti di questi telefoni avevano anche la caratteristica di avere un programmatore di suoni incorporato usando un compositore di suonerie interno. Diversi formati sono stati sviluppati per permettere di spedire le suonerie via test o SMS, per esempio la codifica RTTL.
Polifonica
Polifonico significa che molteplici toni possono essere riprodotti allo stesso tempo utilizzando strumenti musicali come chitarra, tamburi, tastiera, etc. Molti telefoni sono ora capaci di riprodurre politoni più complessi; fino a 128 note individuali con strumenti diversi possono essere suonate simultaneamente per rendere più realistico un suono musicale. I produttori di telefonini hanno giovato delle nuove tecnologie per migliorare gli altoparlanti e riuscire a produrre suoni di qualità migliore.
testo disponibile nel rispetto dei termini della GNU Free Documentation License.
Lunux in azione sull'iPod
Definizione correlata al video tratta da Wikipedia
L'iPod è un lettore di musica digitale prodotto da Apple Inc.. Venne rilasciato dalla nota casa informatica nell'ottobre del 2001 ed era originalmente dotato di un hard disk da 5 GByte. l'iPod - nella prima versione - era compatibile solamente con i sistemi Macintosh. Per la navigazione nei menu e la gestione delle canzoni si basava su una rotella scorrevole posta anteriormente all'apparecchio. La ricarica della batteria e lo scaricamento delle canzoni erano effettuate da un cavo firewire. L'iPod, a differenza degli altri lettori di musica, era molto leggero, grazie a un hard disk ultra sottile prodotto dalla Toshiba, e molto rapido nella gestione della libreria musicale (il collegamento Firewire era 35 volte più veloce dei collegamenti USB 1.1). Visto il successo del lettore, Apple ne rilasciò la seconda generazione nel marzo del 2002. iPod venne venduto in versione da 10 GByte e nel luglio dello stesso anno uscì la versione da 20 GByte. Le nuove versioni divennero disponibili anche per l'ambiente Windows. Apple apportò anche delle modifiche al firmware dell'iPod per fornirlo di limitate capacità PDA. Tra la versione per Windows e la versione per Macintosh l'unica differenza era il metodo di formattazione dell'hard disk. La versione per Macintosh utilizzava l'HFS+ mentre quella per Windows la FAT32. I computer Macintosh erano in grado di riconoscere e utilizzare gli iPod Windows mentre il contrario non era possibile dato che Windows non era in grado di gestire il file system HFS+.
Nel settembre del 2005 è stato lanciato sul mercato l'iPod nano che sintetizza le ultime due versioni in un lettore molto piccolo e leggero, con un display a colori che permette anche la visualizzazione di immagini jpg, venduto al momento nelle versioni da 1, 2, 4 e 8 Gb di memoria.
Nell'ottobre del 2005 è stato presentato l'iPod video; disponibile in due formati, 30 GB e 60 GB, abbina alla riproduzione di canzoni e alla visualizzazione di foto la riproduzione di video. Dal suo lancio su iTunes è possibile scaricare non soltanto video musicali ma anche podcast video e gli episodi di molte fiction americane. Per l'occasione il design dell'iPod ha subito un leggero restyling, risultando di conseguenza più sottile e con la parte frontale ispirata all'iMac. Come per l'iPod nano, Apple ha introdotto anche la versione di colore nero a fianco della classica colorazione bianca.
testo disponibile nel rispetto dei termini della GNU Free Documentation License.
lunedì 12 febbraio 2007
3D Desktop! TouchScreen and XGL on Linux!
Definizione associata al video tratta da Wikipedia:Il touch screen o schermo tattile è un dispositivo hardware che consente all'utente di interagire con un computer toccando lo schermo. Lo si può dunque considerare come l'unione di un dispositivo di output (lo schermo) e un dispositivo di input (il sistema che rileva il contatto con lo schermo stesso, ricavandone la posizione). Quest'ultimo meccanismo è alternativo all'uso di altri dispositivi di puntamento come il mouse o la touch pad.
Un touch screen può essere realizzato con una gamma di tecnologie piuttosto diverse. I primi touch screen usavano raggi di luce infrarossa proiettati secondo una disposizione a griglia immediatamente sopra la superficie dello schermo. Appoggiando il dito allo schermo l'utente interrompe alcuni fasci orizzontali e alcuni fasci verticali, consentendo così l'identificazione delle coordinate a cui è avvenuto il "contatto".
La maggior parte dei modelli moderni usano un foglio di plastica trasparente, sottile e resistente, aderente alla superficie dello schermo. La posizione "puntata" viene calcolata sulla base della capacità per gli assi X e Y, che varia a seconda del punto in cui avviene il contatto.
Il modello HP-150 è stato fra i primi computer con touch screen commercializzati nel mondo. Più che di un touch screen in senso stretto (cioè specificatamente progettato come tale), è dotato di uno schermo a tubo catodico Sony da 9 pollici a cui è stata aggiunta una griglia di trasmittenti e ricevitori di raggi infrarossi, capaci di localizzare qualsiasi oggetto opaco posizionato a contatto con lo schermo.
Solitamente utilizzato quale schermo per palmari, nel 2004 il touch screen divenne anche il principale metodo di controllo della neonata consolle della Nintendo, il Nintendo DS, riscoprendosi molto versatile e preciso anche per le applicazioni videoludiche tipiche di questa consolle portatile.