lunedì 9 aprile 2007

L'autodistruzione dell'uomo

Questo video che utilizza alcuni spezzoni di film famosi, fa riflettere su come potrebbe finire la vita sulla terra, non si parla di asteroidi o di malattie, ma l'uomo si autodistruggerebbe a causa delle armi nucleari utilizzate nelle guerre che continuano a flagellare il mondo.

E se ci pensate bene....lo scenario nn è poi così lontano da quello dei nostri giorni.....


The End - Funny videos are here

Lo sapevi che:

Il telefono cellulare è stato inventato con molta probabilità da Martin Cooper, geniale dipendente della Motorola che fece la sua prima telefonata da un cellulare il 3 aprile 1973. Ma solo dopo 10 anni la Motorola decise di produrre un modello dalla cifra di 4000 dollari.

Generazioni della telefonia mobile

Dalla sua comparsa, il telefono cellulare ha usato tre diversi sistemi di funzionamento principali (ed alcuni "intermedi"), chiamati generazioni, basati su differenti tecnologie e standard di comunicazione:

* 0G: Radiotelefoni usati prima dell'avvento dei telefoni cellulari.
* 1G (I generazione): standard TACS (Total Access Communication System), ETACS (ExtendedTACS, TACS Esteso con l'aggiunta di nuove frequenze), AMPS (Advanced Mobile Phone System) e NMT (Nordic Mobile Telephone system) - Cellulari analogici.
* 2G (II generazione): standard GSM (Global System for Mobile Communications), CDMA IS-95 e D-AMPS IS-136 - Primi cellulari digitali.
* 2.5G: standard GPRS (General Packet Radio System) - Cellulari digitali ad alta velocità di trasmissione dati.
* 2.75G: standard EDGE (Enhanced Data rates for GSM Evolution) - Versione più veloce dello standard GPRS per il trasferimento dati sulla rete cellulare GSM.
* 3G (III generazione): standard UMTS (Universal Mobile Telephone System), Wideband CDMA (W-CDMA), CDMA 2000 - Videocellulari o cellulari 3GPP (3rd Generation Partnership Project).
* 4G (IV generazione): standard VSF-Spread OFDM (Variable-Spreading-Factor Spread Orthogonal Frequency Division Multiplexing).

Da pochi anni, l'UMTS, la terza generazione, permette l'utilizzo del telefono cellulare anche per videotelefonate, registrazione e visualizzazione videofilmati e visione di TV e programmi dedicati; ma già da alcuni anni la generazione GSM offre in commercio cellulari con schermi a colori, possibilità di connessione a internet nello speciale protocollo WAP (Wireless Application Protocol) e fotocamere digitali.

I nuovi modelli di telefono cellulare possono essere dotati di schermo a colori, fotocamera digitale, lettore MP3, Bluetooth, Wi-Fi e la possibilità di sincronizzare informazioni (messaggi, calendario, rubrica indirizzi) con programmi denominati PIM (iniziali di Personal Information Manager) installati sul proprio computer. Alcuni cellulari chiamati Smartphone offrono anche la possibilità di installare programmi complessi come per il fotoritocco, per il controllo del computer o altri innumerevoli applicativi.

Principali produttori di telefonini

* Nokia
* Motorola
* Onda Communication
* Sony Ericsson
* Samsung
* LG
* Panasonic
* BenQ Siemens

Operatori di telefonia mobile in Italia

* Tim
* Tre
* Vodafone
* Wind

Definizione tratta da Wikipedia
Tutti i testi sono disponibili nel rispetto dei termini della GNU Free Documentation License.

domenica 11 marzo 2007

Il pinguino di Linux si da al canto e sbotta contro Windows

In questo video vedrete...anzi sentirete cantare Tux il paffuto pinguino mascotte del kernel di Linux in modo un po irriverente nei confronti di Windows.


The Linux Penguin singing - More bloopers are a click away

Definizione tratta da Wikipedia:
Tux è la mascotte ufficiale del kernel Linux. Creato da Larry Ewing nel 1996, è un pinguino paffuto dall'aria contenta. L'idea che la mascotte di Linux dovesse essere un pinguino venne inizialmente a Tove Torvalds, moglie di Linus Torvalds, il creatore del kernel Linux, sapendo della simpatia che il marito provava per queste creature.

L'origine del nome Tux, suggerito da James Hughes, è un acronimo, in puro stile Unix, derivato da Torvalds UniX. Inoltre, il nome è assonante all'inglese tuxedo, ovvero lo smoking (a cui il pinguino assomiglia).

Tux venne disegnato nell'ambito di un concorso Linux. Sul sito del concorso Linux sono presenti altre immagini dei partecipanti. Il logo vincitore venne creato da Larry Ewing con GIMP, un pacchetto grafico distribuito come free software, e rilasciato secondo la condizione seguente:

Si autorizza l'uso e/o la modifica di questa immagine a condizione che venga riconosciuto il mio nome lewing@isc.tamu.edu e quello di GIMP, se qualcuno lo chiede.

Secondo Jeff Ayers, Linus Torvalds ha una "fissazione per gli uccelli acquatici grassi e che non volano". Inoltre Torvalds afferma di avere contratto la "pinguinite" dopo essere stato gentilmente mordicchiato da un pinguino: "La pinguinite ti tiene sveglio la notte a pensare ai pinguini e ti fa provare un grande senso di affetto verso di loro." La malattia immaginaria di Torvalds è ovviamente uno scherzo, tuttavia venne realmente morso da un piccolo pinguino durante una visita a Canberra ([2]). Torvalds stava cercando qualcosa di divertente e simpatico da associare a Linux e un pinguino un po' grasso che si siede dopo un pranzo abbondante ed una buona pinta di birra rispondeva perfettamente all'idea. Da notare i piedi arancioni che lo fanno somigliare ad un'anatra.

Tux è diventato un'icona per Linux e per la comunità open source, tanto che un Linux User Group inglese ha adottato un pinguino allo Zoo di Bristol. È molto più famoso del suo grande amico, GNU, uno gnu timido e pacifico che rappresenta il progetto GNU.
Tux, nella forma del logo di PaX
Tux, nella forma del logo di PaX

Appare vestito o ritratto spesso in modo diverso, a seconda del contesto; per esempio, quando rappresenta l'algoritmo di sicurezza PaX, indossa un elmo e impugna un'ascia e uno scudo, e i suoi occhi sono rossi.

Tux è la star di un videogioco per Linux chiamato Tux Racer, dove l'utente guida Tux mentre scivola sulla pancia da diversi iceberg, tentando di prendere una aringa e di migliorare il proprio tempo. Sono stati sviluppati in seguito altri videogiochi con protagonisti Tux tra i quali anche SuperTux un clone di Super Mario Bros della Nintendo.

Nelle distribuzioni di Linux, Tux saluta l'utente durante il boot; nei sistemi multi-processore, appaiono più pinguini contemporaneamente.

TUX è anche il nome di un web server basato sul kernel Linux, in grado di servire pagine statiche molto più velocemente dei server tradizionali come Apache. Questo software è mantenuto dalla Red Hat.

Tutti i testi sono disponibili nel rispetto dei termini della GNU Free Documentation License.

lunedì 26 febbraio 2007

WINDOWS VISTA (AERO) VS LINUX UBUNTU (BERYL)

In questo video vengono messe a confronto diretto le due interfacce grafiche Aero (Windows Vista) e Beryil (Linux Ubuntu), Aero si dimostra qualche anno indietro negli effetti grafici anche se sono la prinicipale e più evidente novità di Windows Vista...


WINDOWS VISTA (AERO) VS LINUX UBUNTU (BERYL) - The top video clips of the week are here

Definizione associata al video tratta da Wikipedia:

Windows Aero è la nuova shell visiva di Windows Vista; è un ambiente che offre maggiore raffinatezza visiva e facilità di utilizzo anche per chi non ha grande familiarità con il computer. La ricerca dei file è resa più agevole grazie alla nuova funzionalità di Ricerca istantanea e alle nuove icone "live" (anteprime scalabili) attraverso le quali è possibile visualizzare nella taskbar l'anteprima delle applicazioni aperte, la prima pagina di un documento, un'immagine del contenuto delle cartelle senza dovervi accedere. Permette la personalizzazione della trasparenza e del colore di ogni singola finestra. La funzione Flip 3D permette di mostrare le finestre aperte in cascata in un ambiente tridimensionale e selezionare quella voluta facendole ruotare con la rotellina o clickando su quella desiderata. La funzione Flip 2D invece mostra un'anteprima delle finestre aperte al centro dello schermo in 2 dimensioni. Questa nuova shell non sarà disponibile su tutte le versioni di Windows Vista. Mancherà infatti nella versione Home Basic. Con l'arrivo del 30 gennaio 2007 Microsoft rilascerà aggiornamenti per Aero che permetterà di sostituire i normali desktop background con dei video anche ad alta definizione.

Utilizza schede grafiche DX9 con processori 3D; perciò la CPU non è più impegnata a disegnare le finestre, perché fa tutto la scheda video e anche la memoria usata per memorizzare le finestre è quella della scheda video e quindi non viene sprecata RAM di sistema.

In molti sostengono che questa tanto decantata interfaccia innovativa, non faccia altro che copiare elementi da Mac OS X e da Xgl (interfaccia grafica 3D di GNU/Linux).

Tutti i testi sono disponibili nel rispetto dei termini della GNU Free Documentation License.

domenica 25 febbraio 2007

Fedora Core 5 in esecuzione sulla Playstation 3

In questo video vediamo in esecuzione Fedora core 5 sulla Playstation 3:



Definizione associata al video tratta da Wikipedia:

Fedora Core è una distribuzione Linux curata dal Progetto Fedora, un progetto Open Source sponsorizzato (ma non direttamente supportato) da Red Hat e supportato dalla community. L'obiettivo è quello di lavorare con la community di Linux per creare un sistema operativo completo, utilizzando esclusivamente software liberi e forum pubblici con processi aperti. Questo porta a un continuo aggiornamento delle distribuzioni, aggiornamento che è diventato molto semplice, anche da una distribuzione all'altra. È un settore adibito a nuove tecnologie che in futuro potrebbero essere integrate all'interno dei prodotti di Red Hat.

Fedora è indicata per qualsiasi utilizzo poiché contiene tutti gli strumenti per lavorare in ambiente server senza tralasciare una serie di tool grafici per la configurazione, utili per gli utenti alla ricerca di un desktop user-friendly. Basata sulla ricerca del massimo grado di aggiornamento è rilasciata su base fissa semestrale con le versioni più recenti di ogni pacchetto, compreso il kernel.

Nel periodo compreso da settembre 2004 a marzo 2005 Fedora Core è stata installata su 405.682 siti, con un incremento del 122% per il periodo preso in considerazione.

La storia di Fedora è in parte la storia di Red Hat, la società fondata da Bob Young e Marc Ewing.

Tutti i testi sono disponibili nel rispetto dei termini della GNU Free Documentation License.

martedì 20 febbraio 2007

Aggiornare Windows XP a Windows Vista

Questo video spiega come aggiornare Windows Xp a Windows Vista senza formattare e mantenendo quindi tutti i vostri dati. Personalmente al momento vi sconsiglio di passare a Windows Vista sopratutto se avete un pc un po datato. Per chi amasse il rischio invece e volesse effettuare l'upgrade ecco come fare:



Definizione associata al video tratta da Wikipedia:

Windows Vista (noto precedentemente con il nome in codice Longhorn) è la più recente versione dei sistemi operativi Windows della famiglia Microsoft. La versione "RTM" (Release To Manufacture), talvolta chiamata "Gold", è stata rilasciata l'8 novembre 2006. Il 16 novembre 2006 la versione definitiva inglese è stata resa disponibile per il download agli abbonati MSDN. La versione italiana è invece stata resa disponibile dal 2 dicembre 2006, sempre su MSDN. Il rilascio della versione finale di questo sistema operativo per le aziende che hanno sottoscritto contratti per "Volume License" è stato compiuto il 30 novembre 2006; mentre per i clienti Retail e OEM è stato rilasciato al pubblico due mesi dopo: il 30 gennaio 2007.

È prevista anche una versione server del nuovo sistema operativo, con nome in codice "Longhorn Server".

Il nome definitivo di quello che era fino ad allora conosciuto col nome in codice Longhorn è stato divulgato da Microsoft prima del rilascio della versione Beta 1. Questa notizia ha colto di sorpresa la comunità informatica, sia perché in genere Microsoft tarda ad annunciare il nome finale dei sistemi operativi, sia per la singolarità del nome che rompe qualsiasi legame con il passato.

Il termine vista deriva dal verbo latino vĭdēre (in italiano vedere), inoltre in lingua inglese e in diverse lingue romanze la parola vista significa, come in italiano, veduta, visuale: questo dovrebbe simboleggiare sia il nuovo aspetto grafico del sistema operativo, sia la possibilità che offre di avere una nuova visuale dei dati contenuti nel proprio computer.

Gli appassionati hanno inoltre dato diverse interpretazioni a questo nome, per esempio che la versione di Windows Vista è la numero 6.0 e le prime 2 iniziali del nome, "Vi", corrispondono al numero romano VI.

Il nome in codice Longhorn derivava dal nome di un bar di una località sciistica nei pressi di Seattle, sede della Microsoft. Questa località si trova fra il monte Whistler (nome in codice di Windows XP) e il monte Blackcomb (precedente nome in codice di Windows codename Vienna, una futura versione di Microsoft Windows).

Testo disponibile nel rispetto dei termini della GNU Free Documentation License.

Come creare un logo in stile Web 2.0

In questo video viene mostrata la procedura per creare un logo in stile Web 2.0 utilizzando PhotoShop.



Definizione associata al video tratta da Wikipedia:

Un logo, o logotipo, è una rappresentazione grafica atta a rappresentare, in genere, un prodotto o un marchio di fabbrica.

Più precisamente per logotipo s'intende il carattere (la font) con cui un'azienda si differenzia da un'altra. Un logotipo non è composto da disegni o da immagini, altrimenti sarebbe un pittogramma o un ideogramma.

La nascita dell'Era dell'Informazione ha cambiato il volto del logo. Oggi il grande pubblico è sempre più interessato al significato dei simboli visivi, in particolar modo di quelli usati come logo. Caratteristiche fondamentali di un buon logo sono la leggibilità ed il buon riconoscimento della marca.

A causa della diversità dei prodotti e dei servizi venduti oggi, l'esigenza di nuovi logo unici è ancora più forte, poiché i logo sono il fondamento dell'immagine visiva dell'azienda. Un marchio professionalmente progettato è il fondamento per qualunque azienda commerciale o per un prodotto che si desidera promuovere attraverso tutti i media. I logo si sono trasformati nel volto commerciale dell'azienda, la corporate identity.

Testo disponibile nel rispetto dei termini della GNU Free Documentation License.

lunedì 19 febbraio 2007

La storia del Web in 5 minuti

Questo video ripercorre velocemente le principali evoluzioni tecnologiche che hanno interessato il web, fino ad arrivare al Web 2.0. Molto bello



Guarda anche:
Un UFO immortalato da google maps? Guarda il video
Un PC sott'olio come le olive? Guarda il video
CPU a 5Ghz raffreddata con azoto liquido Guarda il video
Definizione associata al video tratta da Wikipedia:

Con il nome Web 2.0 o Internet 2.0 si intende un generico stato di evoluzione di Internet e in particolare del World Wide Web.

Alcuni hanno tentato di definire il Web 2.0 come una serie di siti web con interfaccia, facilità e velocità d'uso tali da renderli simili alle applicazioni tradizionali che gli utenti sono abituati a installare nei propri computer.

Spesso vengono usate tecnologie di programmazione particolari, come AJAX (Gmail usa largamente questa tecnica per essere semplice e veloce) o Adobe Flex.

I propositori del termine Web 2.0 affermano che questo differisce dal concetto iniziale di web, retroattivamente etichettato Web 1.0, perché si discosta dai classici siti web statici, dall'e-mail, dall'uso dei motori di ricerca, dalla navigazione lineare e propone un World Wide Web più dinamico e interattivo.

Un esempio potrebbe essere il Social Commerce, l'evoluzione dell'E-Commerce in senso interattivo, che consente una maggiore partecipazione dei clienti , attraverso blogs, forum, sistemi di feedback ecc.

Gli scettici replicano che il termine Web 2.0 non ha un vero e proprio significato, in quanto questo dipende esclusivamente da ciò che i propositori decidono che debba significare per cercare di convincere i media e gli investitori che stanno creando qualcosa di nuovo e migliore, invece di continuare a sviluppare le tecnologie esistenti.

Testo disponibile nel rispetto dei termini della GNU Free Documentation License.

domenica 18 febbraio 2007

Il volto di un Bug

Con questo video i programmatori possono finalmente vedere la faccia dei Bug che "infestano" il codice dei loro programmi.



Guarda anche:
Un UFO immortalato da google maps? Guarda il video
Un PC sott'olio come le olive? Guarda il video
CPU a 5Ghz raffreddata con azoto liquido Guarda il video

Definizione associata al video tratta da Wikipedia:

Nell'informatica il termine bug (dall'inglese "insetto") identifica un errore nella scrittura di un software, che causa un suo funzionamento errato o comunque diverso da quello che l'autore ha previsto ed in alcuni casi anche il suo blocco totale; meno comunemente, il termine bug può indicare un difetto di progettazione in un componente hardware che ne causa un comportamento imprevisto o comunque diverso da quello specificato dal produttore.

I bug in un programma possono essere in certi casi particolarmente gravi a tal punto da rendere vulnerabile ad attacchi informatici anche il computer che ospita il software.
  • Bug famosi nel mondo informatico sono i cosiddetti buffer overflow.
  • Un noto bug in un componente hardware è quello che nel 1994 afflisse l'allora neonato microprocessore Pentium, che in certi casi restituiva risultati errati anche in semplici calcoli aritmetici. I primi Pentium infatti avevano problemi nella FPU (Floating Point Unit, Unità a Virgola Mobile o coprocessore matematico come si diceva in precedenza) per cui erravano appunto alcune operazioni decimali. In un primo tempo venne rilasciato un software che escludeva questa unità ed in seguito tutti i microprocessori vennero sostituiti.
L'uso del termine bug è legato ad un curioso aneddoto risalente ai tempi pionieristici dell'informatica: nell'agosto del 1945 il tenente Hopper ed il suo gruppo stavano cercando la causa del malfunzionamento di un computer Mark II quando, con stupore, si accorsero che una falena si era incastrata tra i circuiti. Dopo aver rimosso l'insetto, il tenente incollò la falena rimossa sul registro del computer e annotò: «1545. Relay #70 Panel F (moth) in relay. First actual case of bug being found». Questo registro è conservato presso lo Smithsonian National Museum of American History.

In realtà il termine bug nel senso di problema tecnico è stato usato almeno dal 1870, è citato in questo senso in una lettera di Edison del 1878, probabilmente questo uso del termine è di origine scozzese.

Testo disponibile nel rispetto dei termini della GNU Free Documentation License.

iAlertU L'antifurto per MAC

Nel video vedrete in azione iAlertU, un antifurto per MacBook che funziona proprio come un antifurto per auto. E' possibile attivarlo attraverso un comando a distanza, da quel momento un sensore di movimento segnalerà attraverso un allarme sonoro e visivo se qualcuno tenta di spostare il vostro prezioso MacBook.

Per ulteriori info visitate il sito di iAlertU



Guarda anche:
Un UFO immortalato da google maps? Guarda il video
Un PC sott'olio come le olive? Guarda il video
CPU a 5Ghz raffreddata con azoto liquido Guarda il video

Definizione associata al video tratta da Wikipedia:

Macintosh
, abbreviato come Mac, è una popolare famiglia di personal computer costruiti a partire dal 1984 dalla Apple Computer Inc. (Cupertino, California) che sfruttano il sistema operativo MacOS (oggi Mac OS X). Il Mac originale è stato il primo computer con un'interfaccia grafica e un mouse di serie, a conquistare un vasto pubblico di utenti, e a entrare prepotentemente nel mercato. Con questo grande successo Apple riscattò l'iniziale tiepida accoglienza riservata all'Apple Lisa, il suo predecessore, e dimostrò che l'idea del concetto di scrivania virtuale, che si basava su di una interfaccia WIMP (Windows, Icons, Mouse, Pointer) era vincente.

Soprattutto Apple con questa mossa riuscì a dimostrare che il paradigma WIMP veniva apprezzato a livello mondiale anche da neofiti o da professionisti che non fossero addetti del settore dell'informatica, che un'interfaccia grafica faceva presa ed attirava la curiosità di grandi masse, e che infine, la semplicità ed intuitività del concetto di mouse associato ad una GUI desktop (appunto "scrivania" in inglese) apriva finalmente l'informatica domestica, hobbyistica e professionale ad un pubblico che, fino a quel momento, era stato timido e restio ad avvicinarsi a quel "misterioso" oggetto (così allora veniva considerato) che è il personal computer, visto come oggetto di elite e non di uso comune.

Testo disponibile nel rispetto dei termini della GNU Free Documentation License.

sabato 17 febbraio 2007

3D Desktop! TouchScreen and XGL on Linux (parte 2)

Ecco un'altro video che mostra le potenzialità di dell'architettura XGL su linux utilizzando un monitor Touch Screen. Molto bello l'effetto "elastico" che è possibile ottenere trascinando un bordo della finestra per poi lasciarlo improvvisamente.



Guarda anche:
Un UFO immortalato da google maps? Guarda il video
Un PC sott'olio come le olive? Guarda il video
CPU a 5Ghz raffreddata con azoto liquido Guarda il video

Definizioni associate al video tratte da Wikipedia:

XGL, acronimo di X over OpenGL, è un'architettura di X Window System progettata per sfruttare le moderne schede grafiche attraverso i loro driver OpenGL ed è sviluppata sulla base di OpenGL utilizzando glitz. Supporta l'accelerazione in hardware di tutto X, applicazioni OpenGL e XVideo, nonché effetti grafici grazie ad un "compositing window manager" come Compiz o Beryl. Il progetto fu iniziato dal dipendente di Novell David Reveman e rilasciato la prima volta il 2 gennaio 2006.

In alcune demo [1], Novell mostra esempi con effetti di trasparenza applicati alle finestre delle applicazioni, possibilità di miniaturizzare al volo la riproduzione di un video senza perdere frame e un'interfaccia grafica tridimensionale a forma di prisma che permette di tenere sott'occhio da 4 a 25 desktop.

X Window System, noto in gergo come X11 o ancor più semplicemente X, è di fatto il gestore grafico standard per tutti i sistemi Unix (Linux e BSD compresi); è mantenuto dalla X.Org Foundation e rilasciato sotto una licenza di software libero.

Supportato seppur marginalmente da alcuni tra i maggiori produttori di hardware grafico, è ormai usato secondariamente anche da altri sistemi operativi (es. Mac OS X, che usa nativamente Quartz) per permettere il funzionamento del software progettato per questo sistema grafico, come la suite da ufficio OpenOffice e Gimp.

X fornisce l'ambiente i componenti di base per le interfacce grafiche, ovvero il disegno e lo spostamento delle finestre sullo schermo e l'interazione con il mouse e la tastiera. X non gestisce invece l'interfaccia grafica utente o lo stile grafico delle applicazioni: tutti questi aspetti sono gestiti direttamente da ogni singola applicazione.

Un'altra caratteristica molto importante è la trasparenza di rete: la macchina dove girano i programmi (client) non deve essere per forza la macchina locale (display server). I termini "server" e "client" vengono spesso confusi: per X il server è il display locale dell'utente, non una macchina remota. Questo permette anche di visualizzare sullo stesso display applicazioni che vengono eseguite su diversi host, oppure che su un host vengano eseguite applicazioni la cui interfaccia grafica finisce su diversi display.

X è nato al MIT nel 1984. La vesione attuale del protocollo, X11, è stata ultimata nel settembre del 1987. Attualmente la X.Org Foundation implementa il protocollo X versione 11 in XOrg e l'ultima versione disponibile è la 7.1.

Testi disponibili nel rispetto dei termini della GNU Free Documentation License.

giovedì 15 febbraio 2007

BumpTop un desktop 3D sperimentale

BubpTop è un prototipo di desktop 3D, come vedrete dal video è veramente stupefacente quello che permette di fare con i documenti presenti nel desktop. Se siete amanti del "disordine creativo" potrete spargere disordinatamente i vostri file PDF nel desktop lanciandoli letteralmente, oppure potete impilare ordinatamente tutti i vostri documenti word con un semplice movimento del mouse...insomma potete fare tutto (o quasi) quello che potete fare con i fogli reali della vostra scrivania.



Per ulteriori informazioni visitate il sito di BubpTop
Definizione associata al video tratta da Wikipedia:

La Computer grafica 3D è un ramo della Computer grafica che si basa sull'elaborazione di modelli virtuali in 3D da parte di un computer. Essa viene utilizzata insieme alla computer animation nella realizzazione di immagini visuali per cinema o televisione, videogiochi, ingegneria, usi commerciali o scientifici. Il termine può anche essere riferito ad immagini prodotte con lo stesso metodo.

La Computer grafica 3D è basicamente la scienza, lo studio e il metodo di proiezione della rappresentazione matematica di oggetti tridimensionali tramite un'immagine bidimensionale attraverso l'uso di tecniche come la prospettiva e l'ombreggiatura (shading) per simulare la percezione di questi oggetti da parte dell'occhio umano. Ogni sistema 3D deve fornire due elementi: un metodo di descrizione del sistema 3D stesso ("scena"), composto di rappresentazioni matematiche di oggetti tridimensionali, detti "modelli", e un meccanismo di produzione di un'immagine 2D dalla scena, detto "renderer".

Modelli 3D:
Oggetti tridimensionali semplici possono essere rappresentati con equazioni operanti su un sistema di riferimento cartesiano tridimensionale: per esempio, l'equazione x²+y²+z²=r² è perfetta per una sfera di raggio r. Anche se equazioni così semplici possono sembrare limitative, l'insieme degli oggetti realizzabili viene ampliato con una tecnica chiamata geometria solida costruttiva (CSG, constructive solid geometry), la quale combina oggetti solidi (come cubi, sfere, cilindri, ecc.) per formare oggetti più complessi attraverso le operazioni booleane (unione, differenza e intersezione): un tubo può ad esempio essere rappresentato come la differenza tra due cilindri di diametro differente.

Anche questa tecnica non risulta però sufficiente a descrivere con equazioni semplici una gran quantità di oggetti, per cui non è di utilizzo comune. Per modellare superfici curve in modo arbitrario si possono usare le patch, ovvero l'estensione delle spline, che approssimano curve continue, alle tre dimensioni. Le patch più comunemente usate sono in pratica basate su spline NURBS.

L'impiego di equazioni matematiche pure come queste richiede l'utilizzo di una gran quantità di potenza di calcolo, e non sono quindi pratiche per le applicazioni in tempo reale come videogiochi e simulazioni. Una tecnica più efficiente, ma che permette un minore livello di dettaglio, per modellare oggetti consiste nel rilevare solo alcuni punti dell'oggetto, senza informazioni sulla curva compresa tra di essi. Il risultato è chiamato modello poligonale. Questo presenta "faccette" piuttosto che curve, ma sono state sviluppate tecniche di rendering per ovviare a questa perdita di dati.

Delle superfici poligonali di un modello senza informazioni sulla curvatura possono essere comunque raffinate per via algoritmica in superfici perfettamente curve: questa tecnica è chiamata "superfici di suddivisione", perché la superficie viene suddivisa con un processo iterativo in più superfici, sempre più piccole, fedeli alla curva interpolata e che vanno a comporre un'unica superficie sempre più liscia.

Testo disponibile nel rispetto dei termini della GNU Free Documentation License.

Un UFO Immortalato da Google Maps?

In questo video vedrete le immagini di quello che si può definire un oggetto non identificato immortalato da Google Maps (versione satellitare). Lo strano oggetto è localizzato proprio in italia e precisamente a Castelnuovo Berardenga, in realtà potrebbe trattarsi di uno strano riflesso di luce o qualcos'altro....a voi i giudizi.


UFO Captured On Google Maps - video powered by Metacafe
Definizionie associata al video tratta da wikipedia:

Google Earth, è un software che genera una immagine virtuale della Terra utilizzando immagini satellitari, fotografie aeree e dati topografici memorizzati in una piattaforma GIS. Il programma e distribuito gratuitamente dalla società Google. Inizialmente il programma si chiamava Keyhole e era sviluppato dalla Keyhole, inc. ma nel 2004 la società venne acquisita da Google e il software rinominato di conseguenza. Il programma richiede un sistema operativo Microsoft Windows, Mac OS X o Linux.

Google Earth è un'applicazione grafica tridimensionale che permette di visualizzare fotografie aeree e satellitari della Terra con un dettaglio molto elevato. Nelle principali città del pianeta il programma è in grado di mostrare immagini con una risoluzione inferiore al metro quadrato. Google inizialmente ha acquisito la società Keyhole, inc che produceva l'omonimo programma e in seguito ha fuso il programma Keyhole con il servizio Google Maps in modo da utilizzare tutte le mappe e le informazioni utilizzate dal servizio Maps. Il programma non consente solamente di visualizzare le informazioni ma consente anche al singolo utente di immettere delle informazioni aggiuntive che vengono visualizzate dal programma e che possono essere condivise con gli altri utilizzatori del programma sparsi per il pianeta.

Google Earth può essere utilizzato fornendogli coordinate geografiche, indirizzi o semplicemente navigando sul pianeta con il mouse. La maggior parte delle grandi città sono disponibili in alta risoluzione in modo da potere vedere gli edifici, le strade e le macchine presenti. Il livello di risoluzione dipende dall'importanza del luogo infatti la maggior parte della crosta terrestre è coperta con una risoluzione di 15 metri.

Google Earth si appoggia inoltre ai dati forniti dalla NASA e rilasciati nel pubblico dominio. Questi dati consentono una ricostruzione accurata della maggior parte delle catene montuose mondiali. In aggiunta il programma può sovrapporre alle immagini la ricostuzione tridimensionale dei principali edifici di molte città statunitensi.

Molte persone utilizzano questo programma aggiungendovi informazioni e dati riguardanti le città o i luoghi di interesse.

Google Earth è giunto alla versione 4 beta, rilasciata nel giugno 2006, ed è disponibile per i sistemi operativi Microsoft Windows 2000/XP, per Mac OS X 10.3.9 e successivi e per Linux.

Inoltre, da maggio 2006, Google ha reso disponibile i dati dell'Italia, come la ricerca degli indirizzi, delle attività commerciali e dei percorsi, che fino a poco tempo fa erano abilitati solo in Inghilterra e Stati Uniti. Ad esempio se si digita "cinema rimini" nella casella di ricerca, il programma trova automaticamente tutti i cinema di Rimini.

Testo disponibile nel rispetto dei termini della GNU Free Documentation License.

Up pc sott'olio come le olive?

Si è stato fatto anche questo....nel video vedrete la costruzione di un case particolare....infatti tutti i componenti verranno immersi in olio, olio che riempirà il case del PC....e sembra funzionare...da vedere ma voi non fatelo!


Definizione associata al video tratta da Wikipedia:

L'espressione modding o case modding si riferisce alla pratica di modificare il case di un computer, soprattutto allo scopo di migliorarne e personalizzarne l'estetica. Un esempio classico di modding consiste nell'aprire nel fianco del case una finestra che consente di osservare i componenti interni del PC (in questo senso, il modding potrebbe avere la valenza non secondaria di mostrare la potenza o la qualità dei componenti installati).

Quando i computer divennero accessibili al grande pubblico, la maggior parte dei case erano prodotti in un uniforme colore beige. La beige box era concepita come componente esclusivamente funzionale, e il suo design non appariva influenzato, se non in modo estremamente superficiale, da considerazioni di tipo estetico.

Fu l'iMac Apple il primo personal computer a presentarsi al pubblico con uno chassis dall'estetica sofisticata e accattivante. Diversi costruttori di PC raccolsero la sfida, e nel mercato iniziarono ad apparire case di colore nero, grigio antracite e altri colori; iniziarono a essere impiegati led di colori fluorescenti oltre ai tradizionali "rosso", "verde" o "giallo".

In questo contesto si sviluppò l'interesse degli utenti per l'estetica del proprio computer. Se l'espressione modding, in senso stretto, dovrebbe riferirsi a una modifica del case apportata (in modo creativo e individuale) dall'appassionato, in senso lato si intende come "modding" anche la pura e semplice scelta di componenti e accessori "accattivanti" fra quelli messi a disposizione dal mercato.

Col termine "modding" si intende quindi contemporaneamente un mercato di componenti hardware (caratterizzati dal design non banale) e l'attività amatoriale del "modificatore" che non raramente impiega componenti non forniti direttamente dal mercato (o impiega in modo creativo tali componenti). Questi due contesti si influenzano a vicenda. Per esempio, una delle modifiche più frequenti apportate dagli appassionati ai case era l'apertura di una "finestra" su uno dei fianchi del case stesso, allo scopo di rendere visibile l'hardware interno del computer; dal 2000 in avanti, diversi produttori di hardware hanno incluso questa caratteristica nel progetto di numerosi modelli di case.


Testo disponibile nel rispetto dei termini della GNU Free Documentation License.

CPU a 5Ghz raffreddata con azoto liquido

In questo esperimento viene portato un Intel Pentiun 4 alla soglia dei 5Ghz...per raffreddarlo viene installato un impianto di raffreddamento con azoto liquido....eccezionale!!


Definizione associata al video tratta da Wikipedia:

La CPU (acronimo di Central Processing Unit, detta comunemente processore) è l'implementazione fisica di uno dei due componenti della macchina di Turing (l'altro è la memoria).

Compito della CPU è quello di leggere le istruzioni e i dati dalla memoria ed eseguire le istruzioni; il risultato della esecuzione di una istruzione dipende dal dato su cui opera e dallo stato interno della CPU stessa, che tiene traccia delle passate operazioni.

In base all'organizzazione della memoria si possono distinguere due famiglie di CPU:

  • con architettura Von Neumann classica, in cui dati ed istruzioni risiedono nella stessa memoria (è dunque possibile avere codice automodificante). Questa architettura è la più comune, perché è più semplice e flessibile.
  • con architettura Harvard: i dati e le istruzioni risiedono in due memorie separate. Questa architettura garantisce migliori prestazioni poiché le due memorie possono lavorare in parallelo ma è più complessa da gestire. È tipicamente utilizzata nei DSP.
Testi disponibile nel rispetto dei termini della GNU Free Documentation License.

mercoledì 14 febbraio 2007

Upgrade e manutenzione di un PC (Funny Video)

In questo video un grandissimo esperto di computer ci insegna come effettuare le operazioni di upgrade del nostro pc...voi non fatelo!


Definizione associata al video tratta da Wikipedia

La scheda madre (in inglese motherboard - mainboard-MB o M/B) o scheda di Sistema è una parte fondamentale di un moderno personal computer: raccoglie in sé tutta la circuiteria elettronica di interfaccia fra i vari componenti principali e fra questi e i bus di espansione e le interfacce verso l'esterno. È responsabile della trasmissione e temporizzazione corretta di molte centinaia di segnali diversi, tutti ad alta frequenza e tutti sensibili ai disturbi: per questo la sua buona realizzazione è un fattore chiave per la qualità e l'affidabilità dell'intero computer.
Particolare di una scheda madre Socket 370
Particolare di una scheda madre Socket 370

È composta di un circuito stampato estremamente complesso, ricavato da un sandwich di strati di vetronite e rame: generalmente una scheda madre può avere da quattro a sei strati di rame. In questi sono ricavate le piste che collegano i componenti, che devono essere calcolate con molta cura: alle frequenze normalmente adoperate dalle CPU e dalle memorie RAM in uso oggi, infatti, la trasmissione dei segnali elettrici non si può più considerare istantanea ma deve tenere conto dell'impedenza propria della pista di rame e delle impedenze di ingresso e di uscita dei componenti connessi, che influenzano il tempo di volo dei segnali da un punto all'altro del circuito.

Su questo circuito stampato vengono saldati una serie di circuiti integrati, di zoccoli e di connettori; gli integrati più importanti sono il chipset che svolge la gran parte del lavoro di interfaccia fra i componenti principali e i Bus di espansione, la rom (o PROM, EEPROM o simile) il Socket per il processore e i connettori necessari per il montaggio degli altri componenti del PC e delle schede di espansione. La struttura attuale delle schede di sistema dei computer è il frutto di un'evoluzione tecnologica che ha portato a definire una architettura di sistema valida, in linea di massima, per tutti i sistemi di classe personal computer o di potenza paragonabile.

Testo disponibile nel rispetto dei termini della GNU Free Documentation License.

martedì 13 febbraio 2007

Come creare la propria suoneria per il cellulare

Perchè pagare 2 euro per farci spedire una suoneria quando possiamo crearcela utilizzando un programma Open Source come Audacity?

Questo video mostra i passaggi necessari per realizzare una suoneria da trasferire nel nostro cellulare utilizzando per l'appunto Audacity.



Make Your Own Ringtones - video powered by Metacafe

Definizione correlata al video tratta da Wikipedia

La suoneria è un suono proveniente da un telefonino per indicare una chiamata in arrivo. Il termine è molto spesso utilizzato per riferisi ad un suono personalizzabile disponibile su un telefonino. Questa possibilità originariamente era fornita perché la gente fosse in grado di determinare se il loro telefono stava suonando quando si trovavano in compagnia di altri possessori di cellulari. I telefoni più nuovi possono utilizzare piccoli brani musicali come suonerie e la vendita di questi ultimi è diventato uno dei principali settori dell'industria musicale. Le campagne pubblicitarie basate sulle suonerie sono diventate molto popolari, sebbene abbiano attratto un grande movimento di critiche.

Un telefono suona solo quando uno speciale "segnale di chiamata" è trasmesso. Per i telefoni ordinari, il segnale di chiamata è un'onda da 90-volt 20-hertz AC generata dall'interruttore al quale è attaccato il telefono. Nei telefoni cellulari, il segnale di chiamata è uno specifico segnale di radio frequenza.

L'alternativa alla suoneria è la vibrazione. È particolarmente consigliata:

* in ambienti rumorosi
* in luoghi dove la suoneria può disturbare
* per udito debole

Tipi di suoneria

Monofonica

I primi cellulari avevano la capacità di riprodurre solo suonerie monofoniche, piccole suonerie suonate con semplici toni. Molti di questi telefoni avevano anche la caratteristica di avere un programmatore di suoni incorporato usando un compositore di suonerie interno. Diversi formati sono stati sviluppati per permettere di spedire le suonerie via test o SMS, per esempio la codifica RTTL.

Polifonica

Polifonico significa che molteplici toni possono essere riprodotti allo stesso tempo utilizzando strumenti musicali come chitarra, tamburi, tastiera, etc. Molti telefoni sono ora capaci di riprodurre politoni più complessi; fino a 128 note individuali con strumenti diversi possono essere suonate simultaneamente per rendere più realistico un suono musicale. I produttori di telefonini hanno giovato delle nuove tecnologie per migliorare gli altoparlanti e riuscire a produrre suoni di qualità migliore.

testo disponibile nel rispetto dei termini della GNU Free Documentation License.

Lunux in azione sull'iPod

questo video mostra alcune funzionalità di linux installato in un iPod nano, è anche possibile giocare al mitico DOOM...



Definizione correlata al video tratta da Wikipedia

L'iPod è un lettore di musica digitale prodotto da Apple Inc.. Venne rilasciato dalla nota casa informatica nell'ottobre del 2001 ed era originalmente dotato di un hard disk da 5 GByte. l'iPod - nella prima versione - era compatibile solamente con i sistemi Macintosh. Per la navigazione nei menu e la gestione delle canzoni si basava su una rotella scorrevole posta anteriormente all'apparecchio. La ricarica della batteria e lo scaricamento delle canzoni erano effettuate da un cavo firewire. L'iPod, a differenza degli altri lettori di musica, era molto leggero, grazie a un hard disk ultra sottile prodotto dalla Toshiba, e molto rapido nella gestione della libreria musicale (il collegamento Firewire era 35 volte più veloce dei collegamenti USB 1.1). Visto il successo del lettore, Apple ne rilasciò la seconda generazione nel marzo del 2002. iPod venne venduto in versione da 10 GByte e nel luglio dello stesso anno uscì la versione da 20 GByte. Le nuove versioni divennero disponibili anche per l'ambiente Windows. Apple apportò anche delle modifiche al firmware dell'iPod per fornirlo di limitate capacità PDA. Tra la versione per Windows e la versione per Macintosh l'unica differenza era il metodo di formattazione dell'hard disk. La versione per Macintosh utilizzava l'HFS+ mentre quella per Windows la FAT32. I computer Macintosh erano in grado di riconoscere e utilizzare gli iPod Windows mentre il contrario non era possibile dato che Windows non era in grado di gestire il file system HFS+.

Nel settembre del 2005 è stato lanciato sul mercato l'iPod nano che sintetizza le ultime due versioni in un lettore molto piccolo e leggero, con un display a colori che permette anche la visualizzazione di immagini jpg, venduto al momento nelle versioni da 1, 2, 4 e 8 Gb di memoria.

Nell'ottobre del 2005 è stato presentato l'iPod video; disponibile in due formati, 30 GB e 60 GB, abbina alla riproduzione di canzoni e alla visualizzazione di foto la riproduzione di video. Dal suo lancio su iTunes è possibile scaricare non soltanto video musicali ma anche podcast video e gli episodi di molte fiction americane. Per l'occasione il design dell'iPod ha subito un leggero restyling, risultando di conseguenza più sottile e con la parte frontale ispirata all'iMac. Come per l'iPod nano, Apple ha introdotto anche la versione di colore nero a fianco della classica colorazione bianca.

testo disponibile nel rispetto dei termini della GNU Free Documentation License.

lunedì 12 febbraio 2007

3D Desktop! TouchScreen and XGL on Linux!

Semplicemente stupefacente....



Definizione associata al video tratta da Wikipedia:

Il touch screen o schermo tattile è un dispositivo hardware che consente all'utente di interagire con un computer toccando lo schermo. Lo si può dunque considerare come l'unione di un dispositivo di output (lo schermo) e un dispositivo di input (il sistema che rileva il contatto con lo schermo stesso, ricavandone la posizione). Quest'ultimo meccanismo è alternativo all'uso di altri dispositivi di puntamento come il mouse o la touch pad.

Un touch screen può essere realizzato con una gamma di tecnologie piuttosto diverse. I primi touch screen usavano raggi di luce infrarossa proiettati secondo una disposizione a griglia immediatamente sopra la superficie dello schermo. Appoggiando il dito allo schermo l'utente interrompe alcuni fasci orizzontali e alcuni fasci verticali, consentendo così l'identificazione delle coordinate a cui è avvenuto il "contatto".

La maggior parte dei modelli moderni usano un foglio di plastica trasparente, sottile e resistente, aderente alla superficie dello schermo. La posizione "puntata" viene calcolata sulla base della capacità per gli assi X e Y, che varia a seconda del punto in cui avviene il contatto.

Il modello HP-150 è stato fra i primi computer con touch screen commercializzati nel mondo. Più che di un touch screen in senso stretto (cioè specificatamente progettato come tale), è dotato di uno schermo a tubo catodico Sony da 9 pollici a cui è stata aggiunta una griglia di trasmittenti e ricevitori di raggi infrarossi, capaci di localizzare qualsiasi oggetto opaco posizionato a contatto con lo schermo.

Solitamente utilizzato quale schermo per palmari, nel 2004 il touch screen divenne anche il principale metodo di controllo della neonata consolle della Nintendo, il Nintendo DS, riscoprendosi molto versatile e preciso anche per le applicazioni videoludiche tipiche di questa consolle portatile.


martedì 30 gennaio 2007

Ricevere un nintendo per regalo può portare alla pazzia

Questi due bimbi hanno appena ricevuto come regalo di natale un nintendo64, se fossero miei figli mi preoccuperei e li farei vedere da un bravo dottore...



Definizione associata al video tratta da Wikipedia:

Wii è una console per videogiochi prodotta da Nintendo e succeduta al Nintendo GameCube.

Sebbene Nintendo affermi che la console sia rivolta ad un pubblico più ampio rispetto a Xbox 360 di Microsoft e PlayStation 3 di Sony,[2] Wii facendo parte della settima era delle console per videogiochi compete in qualche modo con le altre due.

La sua caratteristica più distintiva è il controller senza fili, il Wii Remote, simile ad un telecomando, che reagisce alla posizione e all'orientamento rispetto alla barra sensore.

Il suo nome in codice durante i primi mesi di sviluppo è passato da N5 (in riferimento al fatto che è la quinta console da casa della Nintendo), a Revolution. La console venne mostrata per la prima volta nella conferenza stampa Nintendo tenutasi all’ 2005, mentre il controller al Tokyo Game Show 2005 da Satoru Iwata, presidente Nintendo, durante il suo discorso.[3]

Wii è uscita il 19 novembre 2006 in America, il 2 dicembre in Giappone, il 7 in Australasia ed Italia, l'8 in Europa e il 9 in Spagna.

domenica 28 gennaio 2007

Come insegnare al gatto ad accendere l'interuttore della luce

Questo video mostra la tecnica da utilizzare per insegnare al proprio gatto ad accendere l'interuttore della luce.



Definizione associata al video: tratta da Wikipedia

Il gatto o gatto domestico (Felis silvestris catus) è un mammifero carnivoro di piccola taglia della famiglia dei felidi (genere Felis). Venne introdotto in Europa dall'antico Egitto dove era considerato un animale sacro; in alcuni casi veniva mummificato e messo sui sarcofagi delle famiglie più ricche.

Si può trovare allo stato selvatico (ne esistono ancora diverse specie), ma prevalentemente vive nell'ambito domestico. La sua temperatura corporea oscilla fra i 38° e i 38,5°C; la frequenza respiratoria normale è di 10/20 respiri al minuto e quella cardiaca di 110/140 battiti al minuto.

Il suo corpo è agile, flessibile e massiccio, tale da consentirgli di camminare in modo silenziosissimo e di spiccare grandi salti; le sue unghie retrattili (più precisamente protrattili, dato che nella condizione ordinaria di riposo si trovano nascoste e sono estratte solo all'occorrenza) gli permettono di arrampicarsi con grande agilità.

sabato 27 gennaio 2007

Federica Felini scappa una tetta fuori dal vestito

Durante un'intervista di Fabio Canino nel programma cronache marziane, il seno di Federica Felini esce ripetutamente dallo striminzito vestito scollatissimo.

Sarà stata una fuoriuscita voluta? giudicate voi:



Definizione associata al video tratta da Wikipedia

Cronache marziane di Ray Bradbury è una raccolta di ventotto racconti di fantascienza legati fra di loro dal tema comune dell'esplorazione e colonizzazione del pianeta Marte.

Risale al 1950 la pubblicazione dell'intera collezione di racconti più o meno brevi, che conferisce a Bradbury fama internazionale. E sono in molti a riconoscere proprio nelle Cronache marziane il suo indiscusso capolavoro, ancor più del romanzo Fahrenheit 451 scritto in seguito.

L'ambientazione dei racconti, alcuni dei quali pubblicati su riviste di genere precedentemente all'uscita del volume d'insieme, potrebbero far pensare al ciclo delle Cronache marziane come ad una produzione puramente fantascientifica. Il disinteresse di Bradbury nei confronti della scienza traspare nella scelta delle caratteristiche dei marziani, legate ad un ragionamento più fantasioso che logico, e alla mancanza di dettagli nella descrizione di mezzi di trasporto o strumenti avveniristici utilizzati dai personaggi. La definizione di ciclo di fantascienza, com'era intesa all'epoca, risulta quindi stretta per questo capolavoro, che si è imposto per meriti che vanno al di là di un genere. Cronache marziane ha infatti legato il suo successo ad un sentimento di nostalgia nei confronti di una vita più vicina alla natura, sebbene incorniciata da un panorama futuristico, e al mito della frontiera e dell'esplorazione.

Per approfondire l'argomento vai su Wikipedia