Friday, 25 April 2014

How hard drives work

Version française 


How hard drives work

             We all use them to store our data on our PC or laptop.  These are amazing devices when you get into the actual functions they execute to read, write and recover our data for us.

             Hard drives store data in binary form, zeros and ones.  The actuator arm moves the head that is used as an electro magnet to write to the platter by changing the magnetization on specific sections of the platter and then reading what was put onto the platter by measuring the magnetic polarization; it requires a great deal of precision.  A "voice coil actuator" is used and the end of the arm sits between two powerful magnets.



The arm moves because of what is known as the “Lorentz Force”.  When you pass a current in a wire that is in a magnetic field, it experiences a force.  When you reverse the current, the force is reversed.  The position of the arm is fine-tuned by the current running through the coil.

             The head measures the charges in the direction of the magnetic poles.  As in Faraday's Law, when the head passes, a change in magnetization - either positive or negative - is recognized as a spike and represents a "one", when no spike is detected it represents a "zero".


In old hard drives, the head would float at 100 nanometers (0.00000393 inches) from the surface.  Today they float at 10 nanometers (0.000000393 inches).  The closer they get, the smaller the magnetic field which allows for more sectors of information to be packed onto the disk surface thus increasing capacity.

             To keep this critical height, the head floats over the disk.  As the disk spins, it forms a layer of air that gets dragged past the fixed head at 129 kms (80 miles) an hour in the outer edge.  To be able to float this close to the platter, the platter must be extremely smooth.  Surface roughness is about one nanometer (0.000000039 of an inch).

             The magnetic layer is made of cobalt with a bit of platinum and nickel added.  This mix has high coercivity which means it will keep its magnetization and maintain your data until you change it.

             Lastly, to be able to fit 40% more data, engineers have thought up a method called "Partial Response Maximum Likelihood" or PRLM for converting the weak analog signal from the head of a magnetic disk drive into a digital signal. To increase capacity, the magnetic domain is shrunk.  The trouble with this technique is that spikes sometimes overlap giving an imprecise signal.  PRML takes these imprecise signals and generates possible sequences then chooses the most probable.

             Hard drives need to be clean and remain clean.  That's why hard drives are sealed and air intake is filtered.  Particles entering the platter vault could damage the surface and cause data loss.

             Until a problem arises, the hard drive performs un-noticed.  But without its hard drive, your computer could not store all of the data you accumulate.

A few interesting links:

Three sisters who love dancing in the car

Mysteries of the unseen world (Ted talks Vancouver 2014)

Intense downhill mountain biking




Comment fonctionne un disque dur -

English version 


Comment fonctionne un disque dur

             Nous utilisons le disque dur pour stocker les données sur notre ordinateur ou notre portable.  C’est un merveilleux appareil lorsqu'on comprend les prouesses qu'il accomplit pour écrire et lire les données pour nous. 

             Le disque dur stocke les données en format binaire, des zéros et des uns.  Le bras de commande déplace la tête qui est utilisée comme un électro aimant pour écrire sur le disque en appliquant une charge magnétique sur certaines sections spécifiques du disque pour ensuite les lire en mesurant la polarité magnétique, ce qui requiert une grande précision.  Il utilise un ''actionneur à bobine mobile''.  Le bout du bras est placé entre deux puissants aimants.




Le bras se déplace à cause de ce que l'on appelle la « force de Lorentz ».  Lorsque le courant électrique passe dans un fil situé dans un champ magnétique, il subit une force.  Lorsqu'on inverse le courant, la force est inversée.  La position du bras est ajustée selon la puissance du courant dans la bobine. 

             La tête mesure les charges de courant selon la polarité magnétique.  Comme dans la première loi de Faraday, lorsque la tête passe, que la charge magnétique soit positive ou négative, elle est reconnue comme un sommet et est représentée par un ''un'' et lorsqu'il n'y a pas de sommet, elle est représentée par un ''zéro''.


Sur les anciens disques durs, la tête flottait à 100 nanomètres (0.00000393 pouces) de la surface.  Aujourd'hui, la tête flotte à 10 nanomètres (0.000000393 pouces).  Plus elle s'approche du plateau, plus le champ magnétique est réduit, ce qui permet d'augmenter le nombre de secteurs d'information sur le disque et augmenter la capacité. 

             Pour garder cette hauteur critique, la tête flotte au-dessus du disque.  En faisant tourner le disque, il se forme un coussin d'air qui traîne derrière la tête à 129 kms (80 miles) à l'heure sur l'extérieure du disque.  Pour pouvoir flotter aussi près du disque, le disque doit être extrêmement lisse.  La rugosité de la surface est d'environ un nanomètre (0.000000039 pouces).

             La couche magnétique est composée de cobalt avec un alliage de platine et d'argent.  Ce mélange est hautement coercitif ce qui veut dire qu'il gardera la magnétisation et vos données jusqu'à ce que vous la changiez. 

             Enfin, pour pouvoir ajouter 40% de données supplémentaire, les ingénieurs ont conçu une méthode appelée "Partial Response Maximum Likelihood"  (PRLM) pour convertir un signal analogique issu de la tête de lecture magnétique en un signal numérique.  Pour augmenter la capacité, le domaine magnétique est rétréci.  Le problème avec cette méthode est que les sommets se croisent occasionnellement produisant ainsi un signal imprécis.  Le PRLM prend ces signaux imprécis et génère les séquences possibles puis choisis la plus probable.

             Le disque dur doit être propre et demeurer propre.  C'est pourquoi le disque dur est scellé et que l'entrée d'air est filtrée.  Les particules qui pourraient se poser sur le plateau pourraient l'endommager et causer des pertes de données.

             Jusqu'à ce qu'un problème se produise, le disque dur fait son travail dans l’ombre. Mais sans disque dur, votre ordinateur ne pourrait pas stocker toutes les données que vous accumulez.

Quelques liens intéressants:


Les mystères du monde qu'on ne voit pas (Ted talks Vancouver 2014)



Friday, 18 April 2014

Comment fonctionne le cellulaire - How cell phones work

English version below


Comment fonctionne le cellulaire

             Un téléphone cellulaire est en réalité un émetteur récepteur radio.  Un peu comme le talkie-walkie qu'on utilisait dans notre jeunesse.  À ses débuts, le téléphone mobile était installé dans une automobile à cause de sa dimension et des exigences en puissance électrique.  Il a évolué en un format portable dans les années 80 et est devenu populaire dans les années 90.

             La première démonstration d'un téléphone portable fut en 1973 par John F. Mitchell et le Dr Martin Cooper de Motorola, en utilisant des appareils pesant environs 1 Kg (2,2 livres) chaque.  De 1990 à 2011, le nombre d'utilisateurs de téléphones portables a augmenté de 12,4 millions à 6 milliards, rejoignant 87% de la population mondiale. 

             Mais comment sommes-nous capables de parler dans nos téléphones portables sans créer d'interférence avec les autres conversations?  C'est là que le mot cellulaire entre en jeu. 

             Les talkies-walkies et les radios CB fonctionnent en mode semi-duplex c'est à dire que seulement un des transmetteurs peut parler à la fois, les deux unités transmettent et reçoivent sur la même fréquence.  Les talkies-walkies n'ont qu'une fréquence et les radios CB ont 40 canaux.  Le téléphone portable fonctionne en mode duplex, c'est-à-dire que les deux émetteurs peuvent parler en même temps.  Pour ce faire, le téléphone portable doit utiliser deux fréquences simultanément.  Un fournisseur utilise normalement 800 fréquences dans une ville, il divise donc la ville en cellules.  Chaque cellule couvre environ 26 kilomètres carrés (10 miles carrés). La topographie ressemble à ceci : 



Chaque couleur représente un groupe de fréquences pour que les cellules non-adjacentes puissent utiliser les mêmes fréquences.

Les téléphones portables et les stations de bases utilisent des émetteurs de basse puissance pour que les mêmes fréquences puissent être utilisées dans les cellules non-adjacentes.  Chaque cellule à sa propre antenne et une petite cabine qui abrite l'équipement de transmission radio.  Chaque cellule est reliée au MTSO (Mobile Telephone Switching Office ou bureau d'échange téléphonique mobile) du fournisseur qui est branché aux lignes téléphoniques terrestres standards.  
       
             Chaque cellule réserve un certain nombre de fréquences pour la gestion de l'information tel que le code du fournisseur pour que votre téléphone portable puisse reconnaitre l'antenne de votre fournisseur, il reçoit aussi les informations pertinentes au sujet de votre connexion telle que la fréquence de transmission et de réception de votre appel.  Votre appareil s'ajuste selon ces instructions.   
   
             Le téléphone portable est un radio émetteur récepteur sophistiqué qui peut changer de fréquence dans une fraction de seconde.  Lorsque vous vous déplacez d'une cellule à une autre, votre appareil détecte la nouvelle antenne et se prépare à changer de fréquence.  Le fournisseur détecte la présence de votre appareil dans la nouvelle cellule et prépare le transfert de l'appel à la nouvelle cellule et puisque la fréquence sera différente, le téléphone portable et le MTSO transfèrent à la nouvelle antenne en une fraction de seconde et votre conversation se poursuit sans interruption. 

Il y a plus!

             Vous avez surement entendu parler de 2G, 3G et 4G, Le G signifie génération, ce sont donc des mises à jour de la technologie la plus récente.

1G est la génération analogique des téléphones portables utilisés dans les années 80.

2G est la première version numérique du téléphone portable.  L'avantage des connexions numériques est que l'information est convertie en format binaire, comme les enregistrements numériques, ce qui permet de compresser les données; ainsi 3 à 10 appels peuvent utiliser l'espace qu'occupait une conversation analogique.  La transmission, la compression et la reconversion en mode analogique requiert beaucoup de puissance de traitement dans le téléphone portable pour maintenir une qualité de son acceptable. 

             En 2G, il y a trois technologies impliquées:
  • Frequency division multiple access (FDMA) met les appels sur des fréquences différentes.
  • Time division multiple access (TDMA) assigne un certain temps à la fréquence.
  • Code division multiple access (CDMA) donne un code à chaque appel et utilise plusieurs fréquences disponibles.
             FDMA est utilisé principalement pour les conversations analogiques.

             TDMA est une bande étroite de 30 kHz et de 6.7 millisecondes divisée en trois tranches de temps.  Chaque conversation reçoit un tiers du temps ce qui permet d'avoir trois conversations simultanés parce qu'elles sont numérisées et compressées.  Aussi utilisée comme technologie d'accès pour le GSM (Global System for Mobile Communication) qui crypte les conversations pour les rendre plus sécures.

             CDMA numérise et transmet en plusieurs blocs sur plusieurs fréquences de la bande passante.  Il réussit ce tour de force en assignant un code unique à chaque conversation et en les réassemblant en utilisant le code unique de chaque conversation.  Ce système permet d'avoir de huit à dix conversations sur la même fréquence.

3G est créé pour la technologie des téléphones intelligents.  Il est composé de plusieurs technologies d'accès au cellulaire.  Les plus connues sont: 
  • CDMA2000 - basé sur le CDMA du 2G
  • WCDMA (UMTS) - Wideband Code Division Multiple Access
  • TD-SCDMA - Time-division Synchronous Code-division Multiple Access
             Les réseaux 3G ont le potentiel de fonctionner à des vitesses de 3 Mbps (ce qui veut dire que télécharger une chanson MP3 de 3 minutes prend 15 secondes).  Les téléphones 3G sont comme des petits ordinateurs.  Ils peuvent accommoder des vidéo conférences, faire de la lecture vidéo en transit et télécharger des courriels avec attaches. 

Le 4G existe depuis 2006.  Ce n'est que la prochaine étape en fonction de la vitesse de transmission.  Tous les fournisseurs utilisent une forme de 4G bâtie sur une des trois principales technologies d'accès cellulaires: LTE, HSPA+, and WiMAX.

             WiMAX est unique, car il utilise les standards de 802.16 qui est presqu'identique à votre réseau wifi à la maison.  Il peut, en principe, atteindre jusqu'à 40 Mbps mais en réalité c'est beaucoup moindre. 

             HSPA+ (High Speed Packet Access) en 3G il peut atteindre 14.4 Mbps, mais en utilisant le QAM (quadrature amplitude modulation, qui code plusieurs flux de donnés dans une même transmission, donnant l'impression d'avoir une plus grande bande passante) il peut atteindre 21 Mbps.

             LTE (Long Term Evolution) 4G LTE veut dire supporter toute vitesse supérieure au 3G.  L’industrie espère que le LTE deviendra le standard.  Il est basé sur le protocole IP standard, le même standard qui livre les pages Web sur votre ordinateur en ajoutant les données voix à la transmission. 

             Alors la prochaine fois que vous prendrai votre téléphone portable pour faire un appel, pensez à tout ce qui se passe en arrière-plan pour préparer cet appel et vous garder branché. 

Quelques liens intéressants:





_______________________________________________________________________
English version


How cell phones work

             A cell phone is basically a radio transmitter and receiver.  A bit like the old walkie-talkies we used to play with. The first mobile phones were installed in automobiles because of their size and power requirements. They evolved into a portable format in the 1980's and became popular in the 90's.

             The first hand-held cell phones were demonstrated by John F. Mitchell and Dr Martin Cooper of Motorola in 1973, using handsets weighing around 2.2 pounds (1 kg).   From 1990 to 2011, worldwide mobile phone subscriptions grew from 12.4 million to over 6 billion, reaching 87% of the world’s population.

             But how are we able to all talk into our cell phones at the same time without interfering with other conversations?  That's where the "cell" in cell phone comes into play.

             Walkie-talkies and CBs work in what is called half-duplex mode which means only one transmitter can talk at a time; both units are transmitting and receiving on the same frequency.  Walkie-talkies have only one channel whereas CBs have 40 channels.  Cell phones work in full- duplex mode which means both transmitters can talk at the same time.  To be able to do that, cell phones must use 2 frequencies at the same time.  Typically, cell phone carriers have 800 frequencies to use in a city and divide the city into cells, with each cell covering some 10 square miles (26 square kilometers).  A typical breakdown looks like this: 



Each color represents a different set of frequencies so that non-adjacent cells can reuse the same frequencies.

Cell phones and base stations use low-power transmitters so that the same frequencies can be reused in non-adjacent cells.  Each cell consists of an antenna and a small building that houses the radio transmission equipment.  Each cell is linked to the providers Mobile Telephone Switching Office (MTSO) that connects to the land lines associated with your phone provider. 

             Each cell reserves a certain number of frequencies to transmit management information, such as the carrier code for your provider so that your phone knows what tower to track while in the cell.  It also receives information about what frequency the call sent to your phone will be using and which frequency it will be listening when you answer the call.  Your cell phone adjusts accordingly.
            
             Cell phones are sophisticated radio transmitters and receivers that can switch from one frequency to another within milliseconds.  When moving from one cell to another, your cell phone detects the new cell antenna and prepares to switch to the new antenna.  The provider also detects your phone in the new cell and prepares to switch your call to the new cell and since the frequency will be different in the new cell, the phone switches to the new frequency in a millisecond at the same time the central office switches your call to the new frequency in the new cell allowing the conversation to flow uninterrupted.

There's more!

             You've heard of 2G, 3G and 4G?  The G stands for generation: these are all iterations of the latest technology.

1G was known as the analog generation of cell phone that was used in the 1980's.  

2G was the first digital cell phone network.  The advantage of digital connections is that the conversation is converted into binary information, like in digital recordings, which enables the data to be compressed.  This compression allows 3 to 10 digital cell phone calls to occupy the same space one analog conversation would occupy.  The transmission, compression and conversion back to analog means that the phone requires a lot of processing power to keep up so as to maintain a decent voice quality. 

In 2G, there are three technologies involved:
  • Frequency division multiple access (FDMA) puts each call on a separate frequency.
  • Time division multiple access (TDMA) assigns a certain time on the frequency.
  • Code division multiple access (CDMA) gives a code to each call and spreads it over available frequencies.
             FDMA is used mainly for analog conversations.

             TDMA is a narrow band that is 30 kHz wide and 6.7 milliseconds long and is split time-wise into three time slots.  Each conversation gets one third of the time which enables transmission of 3 conversations simultaneously because they are digitized and compressed.  It is also used as the access technology for GSM (Global System for Mobile Communication).  GSM encrypts the conversation to make them more secure.

             CDMA digitizes and spreads the conversation over the entire available bandwidth.  It does that by assigning a separate code for each conversation and reassembles it by using the unique code.  This allows eight to ten conversations to be carried out on the same frequency.

3G is intended for true Smartphone technology.  It’s comprised of several cellular access technologies.  The most common are:
  • CDMA2000 - based on 2G Code Division Multiple Access
  • WCDMA (UMTS) - Wideband Code Division Multiple Access
  • TD-SCDMA - Time-division Synchronous Code-division Multiple Access
             3G networks have the potential to work a 3 Mbps (which means it would take 15 seconds to download a 3 minute MP3 song).  3G phones are like a small computer.  They can accommodate video conferencing, run Web streaming video and download email messages with attachments.

4G has been around since 2006.  It is only the next step in speed.  All carriers have some type of 4G network built on one of three main cellular-access technologies: LTE, HSPA+, and WiMAX.

             WiMAX is unique in the sense that it uses 802.16 wireless standards much like your Wi-Fi network at home.  Theoretically it can reach 40 Mbps but in reality it is much less than that.

             HSPA+ (High Speed Packet Access) in 3G can reach 14.4 Mbps, but by using QAM (quadrature amplitude modulation, which encodes multiple data streams into a single transmission, mimicking increased bandwidth) it can reach 21 Mbps.

             LTE (Long Term Evolution) 4G LTE means support for any speed above 3G.  The industry is hoping LTE will become the standard.  It is based on Internet Protocol (IP) standards, the same standards that deliver Web pages to your computer and adds voice data to the transmission. 

             So the next time you pick-up your cell phone to make a call, think of all of the background work being done by the phone to prepare for the call and keep your connected.

A few interesting links:

Fiat commercial

Monkey see monkey do (just for laughs)

Simon's cat - a moment of madness



Thursday, 10 April 2014

La différence entre un enregistrement analogique et numérique - The difference between analog and digital recordings

English version below


La différence entre un enregistrement analogique et numérique

             En 1877, Thomas Edison crée le premier appareil pouvant enregistrer des sons.  Il invente le phonographe qui utilise une aiguille branchée à un diaphragme qui trace un signal analogique sur un cylindre recouvert d’une feuille d’étain. 


(Source Wikipedia)


             Vous parlez dans l'appareil alors que le cylindre tourne et il enregistre ce que vous dites sur le cylindre sous forme analogique (par vibrations).  Pour écouter l'enregistrement, il suffit de laisser glisser l'aiguille sur le sillon gravé sur la feuille d’étain et la vibration du diaphragme émet le même son qui a été enregistré.

             Emil Berliner améliore le système en 1887 en transférant l'enregistrement sur une plaque horizontale avec des traits en spirales ce qui rend la reproduction plus facile.  Le phonographe moderne utilise la même technique sauf qu'il amplifie le signal lu par l'aiguille plutôt que d'utiliser un diaphragme.


 (Source: How stuff works)

Voici une représentation d'une vague analogique à 500 Hertz (500 oscillations par seconde).  Le principe est simple : lorsque vous écoutez l'enregistrement, l'aiguille vibre de la même façon que lorsque vous avez fait l'enregistrement.  Le problème avec ce type d'enregistrement est que la friction de l'aiguille finit par passer au travers du médium, le rendant inutilisable.  Les disques de vinyle souffrent du même problème même si ils sont plus durables.

             Un enregistrement numérique a pour but de produire un enregistrement haute-fidélité (très grande similitude entre le son original et la reproduction) et une reproduction parfaite (le son enregistré semble identique chaque fois qu'on l'écoute, quel que soit le nombre de fois qu'on l'écoute).

             Pour créer un enregistrement numérique, les vagues sont converties en 0 et en 1 en utilisant un appareil appelé un convertisseur analogique-numérique (CAN).  Et pour l'écouter, on utilise un convertisseur numérique-analogique (CNA).  La conversion sera toujours identique tant qu'il n'y a pas de corruption dans le fichier.  La grande qualité de l'enregistrement est due à la haute fréquence d'échantillonnage. 

             Pour comprendre pourquoi les CD ont une si grande qualité, il faut examiner le procédé derrière la conversion analogique-numérique.  Il y a deux variables sur lesquelles vous avez un certain contrôle:

- La fréquence d'échantillonnage, qui contrôle le nombre d'échantillons par seconde,
- La précision de l'échantillonnage, qui contrôle le nombre de gradations possibles. 

 (Source Wikipedia)

Sur un CD normal, la fréquence d'échantillonnage (t) est de 44,100 et la précision de l'échantillonnage (f(t)) est de 65,536.  À ce niveau, la reproduction à la sortie de la CNA est tellement près de l’original que le son semble parfait à l'oreille humaine. 

             L'inconvénient de cette méthode est la dimension du fichier créé :

44,100 échantillons/(canal*seconde) * 2 octets/échantillon * 2 canaux * 74 minutes * 60 secondes/minute = 783, 216,000 octets

             Un CD peut contenir 74 minutes de musique enregistrée.  1,4 millions bits par seconde égale 176 000 d’octets par seconde.  Si une chanson dure en moyenne trois minutes, alors la chanson moyenne sur un CD consomme environs 32 millions d’octets (ou 32 mégaoctets) d'espace.
 
Les MP3

             Le but des MP3 est de compresser la dimension du fichier de 10 à 14 fois sans affecter la qualité sonore.  La chanson de 32 Mb mentionnée plus haut serait compressée à 3 Mb.  Le MP3 permet de télécharger plus rapidement et laisse plus d'espace sur votre disque dur pour y stocker plus de chansons.

             On compresse presque tous les types de fichiers : fichiers texte (.zip), photos et images (.gif, .jpg).  La technique pour un fichier de musique s'appelle « perceptual noise shaping » - qui veut dire que la qualité perceptuelle est améliorée puisqu’on utilise des caractéristiques de l'ouïe humaine dans son algorithme.

En supposant que :
  • l'oreille humaine ne perçoit pas certains sons,
  • l'oreille humaine détecte certains sons mieux que d'autres,
  • si deux sons sont entendus en même temps, le son le plus fort sera perçu mais pas le son le plus faible.
             Basé sur ces faits, certaines parties de la chanson peuvent être supprimées.  En compressant 10 fois ce qui reste du fichier, on obtient un fichier assez près de la qualité d'un CD.  Mais parce que certaines parties de la chanson sont supprimées, les experts sont d’avis que la pièce musicale n'a pas la même qualité que celle du CD.

             Vous pourriez créer 2 fichiers différents de la même chanson et percevoir une différence dans la qualité du son uniquement en changeant le débit binaire (le nombre de bits par seconde encodé dans le MP3).  Plus le débit est bas, plus il y aura de l'information supprimée. La plage de débit binaire se trouve entre 96 et 320 kilooctets par seconde (kbps).  Un débit binaire de 128 kbps est équivalent à ce que vous entendez à la radio.  Plusieurs sites d'experts et de bloggeurs recommandent d'utiliser 160 kbps ou plus pour atteindre la qualité sonore d'un CD. 

             Certains audiophiles estiment que les fichiers MP3 sont de piètre qualité même avec un débit binaire élevé et considèrent le MP3 inférieur au CD et au vinyle

             Quelle que soit votre appréciation du MP3, il a révolutionné l'industrie de la musique en simplifiant le téléchargement de vos chansons préférées,  vous permettant de vous les procurer en tout temps et de personnaliser votre liste d’écoute.  Vous pouvez les écouter n'importe où.  Le baladeur MP3 se glisse dans une poche et même votre téléphone intelligent joue les MP3. 

Quelques liens intéressants:

Des chats acrobates 

Jeune chef d'orchestre 

Film d'action avec enfants 

_______________________________________________________________________
English version


The difference between analog and digital recordings


             In 1877, Thomas Edison created the first device that recorded sound for playback.  He invented a phonograph that used a needle connected to a diaphragm that scratched an analog signal onto a tinfoil cylinder.


 (Source Wikipedia)

You would speak into his device while the cylinder was being turned, and it recorded what you said onto the cylinder in an analog form (vibrations).  To play back, the needle would run through the scratches made on the tin foil and the vibration on the diaphragm would emit the same sound you had recorded.

             Emil Berliner improved the system in 1887 by transferring the recording onto a horizontal spiral groove which was much easier to mass produce.  The modern phonograph works much the same way, except it amplifies the signal read by the needle rather than using a diaphragm.

  (Source: How stuff works)

Here is a representation of an analog wave at 500 Hertz (500 oscillations per second).  The principle is simple.  As you play the recording, the needle vibrates the same way it did when you recorded the sound.  The problem with this type of recording is that the friction will eventually work its way through the medium making it useless.  Vinyl records suffered from the same issue even though they were more durable.

             In digital recordings, the goal is to produce a high fidelity recording (very high similarity between the original signal and the reproduced signal) and perfect reproduction (the recording sounds the same every time you play it regardless of the number of times it is played).

             To create a digital recording, the waves are converted into 0 and 1's by using a device called an Analog-to-Digital Converter (ADC).  And to play back, it is converted to analog form by using a Digital-to-Analog Converter (DAC).  The conversion will always be the same as long as there is no corruption. The high quality of the recording is due to the high sampling rate.

             To appreciate why CD's have such high quality you need to understand the process behind the analog-to-digital conversion.  There are two variables that you have control over:

- The sampling rate controls the number of samples taken per second.

- The sampling precision controls the number of gradations that are possible.


 (Source Wikipedia)

On a regular CD, the sampling rate is (t) 44,100 and the sampling precision is (f(t)) 65,536.  At this level, the output of the DAC is so close to the original waveform that it sounds perfect to most human ears.

             The downside to this is the size of the file it creates. 

44,100 samples/(channel*second) * 2 bytes/sample * 2 channels * 74 minutes * 60 seconds/minute = 783,216,000 bytes

             A CD can contain 74 minutes of recorded music.  1.4 million bits per second equals 176,000 bytes per second. If an average song is three minutes long, then the average song on a CD consumes about 32 million bytes (or 32 megabytes) of space.

MP3's

             The goal with MP3`s was to compress the size 10 to 14 times without noticeably affecting the CD quality sound.  The 32 Mb song mentioned earlier would be compressed to 3 Mb.  It lets you download much faster and leaves space on your hard drive for more songs.

             We compress most types of files, for text files (zip), for image files (gif, jpg).  The technique for sound files is called “perceptual noise shaping”.  “Perceptual” because it uses characteristics of the human ear in the algorithm.
  • There are sounds that the human ear cannot hear.
  • There are sounds that the human ear hears clearer than others.
  • If there are two sounds playing at the same time, the louder sound will be heard but not the softer one.
             Based on these facts, certain parts of the song can be eliminated.  Compressing the remainder of the file by at least 10 times creates a near CD quality file.  But because some of it has been removed, experts claim the song doesn't sound as good as the CD.

             You can create two different files of the same song and see a difference in quality just by changing the bit rate (the number of bits per second encoded in the MP3).  The lower the bit rate, the more information will be discarded.  Bit rates range from 96 to 320 Kilobytes per second (kbps).  A bit rate of 128 kbps is equivalent to what you hear on the radio.  Many sites and blogs urge people to use 160 kbps or higher to get near CD quality sound. 

             Some audiophiles look down at MP3 files and argue that even at the highest bit rate, MP3's are inferior to CD or vinyl records.

             Whatever you think of MP3 files, they have revolutionized the music industry by making it easy to download your favorite songs anytime and create custom playlists.  You can play them anywhere.  MP3 players fit in your pocket, even Smartphones can play MP3's.

A few interesting links:

Acrobatic cats

Child conductor

Kid action movie 






Friday, 4 April 2014

Capteurs d'appareils photo numériques - Digital camera sensors

English version below


Capteurs d'appareils photo numériques


             Le premier appareil photo numérique a été créé en 1975 par Steve Sasson, un ingénieur d’Eastman Kodak, en utilisant un capteur CCD (Charged-Coupled Device).

             La caméra numérique est devenue populaire dans les années 90 et a remplacé la caméra à film vers le milieu des années 2000 lorsqu'elle est devenue accessible au consommateur.  Mais elle a évolué depuis son apparition sur le marché.  Depuis 2010, même le téléphone cellulaire a une caméra numérique incorporée.

             L'âme de la caméra numérique est son capteur, qui détermine la dimension de l'image, la résolution, la profondeur de champ et la dimension de l’appareil.
 
             Le capteur remplace le rouleau de film de jadis.  Toutes les caractéristiques de la pellicule sont maintenant contrôlées par le capteur.  Les effets spéciaux sont appliqués par la suite via  un logiciel.  Le capteur détermine l'apparence de votre image et la qualité de l'image dépend du nombre de pixels que peut contenir votre capteur et leur dimension. 

             La dimension du capteur est importante.  Un capteur plus petit captera une moins grande partie de la scène qu'un capteur plein cadre parce qu'il appliquera un recadrage à la lentille.  La référence plein cadre est la pellicule 35 mm.

Types de capteurs

Il existe deux grands types de capteurs, CCD (Charged-Coupled Device) et CMOS (Complementary Metal-Oxide-Semiconductor).

Capteur CCD avec circuit imprimé flexible (Source: Wikipedia)

Le CCD est le type de capteur original,  Il est reconnu pour son étendue dynamique et son contrôle du bruit de lecture dans l'image.  On le retrouve dans les appareils pour amateurs, mais la plupart des fabricants l'ont laissé tomber à cause de sa grande consommation d'énergie.

Le CMOS a évolué d'un produit inférieur à un produit de même calibre que le CCD.  Il est plus efficace, utilise moins d'énergie, a plus de caractéristiques et est plus efficace pour les photos en rafales.

Capteur d'image CMOS (Source: Wikipedia)

Le capteur d'image convertit les électrons en voltage.  Un CMOS a un circuit intégré pour chaque capteur.  Chaque pixel est lu en même temps et transmet ensuite les données numériques en même temps.  Cette méthode implique beaucoup de circuits mais est très efficace.  Sur un CCD, les pixels sont stockés sur une puce pour ensuite être acheminés à un convertisseur analogue à numérique un par un pour bâtir les données de l'image.  Ce procédé requiert beaucoup plus d'énergie que le CMOS mais produit une image plus nette.

             Sigma utilise le capteur Faveon X3 basé sur le capteur CMOS.  Live MOS est une marque utilisée depuis 2006 par Leica, Olympus, et Panasonic dans leurs systèmes 4/3 d'appareils Reflex avec une qualité équivalente au CCD et une consommation d'énergie équivalente au CMOS.

Dimension des capteurs

Plein cadre (36mm par 24mm) est l'équivalent de la pellicule 35mm.  Il a presque le double de la dimension du capteur APS-C.  Les appareils professionnels comme la Nikon D800, et la Canon EOS 5D Mark III et la Nikon D4 utilisent ce capteur.  Certains appareils avec lentille fixe comme la Sony Cyber-shot RX1 et la Sony Alpha SLT-A99 utilisent les capteurs plein cadre.

Les capteurs plein cadre n'ont pas de coefficient de conversion et sont excellents pour la macrophotographie et les vidéos.  Le capteur plus grand implique un appareil plus gros. 

APS-H (28.7mm par 19mm) (Active Pixel Sensor) est le type de capteur le plus commun dans les caméras consommateurs autant pour les appareils Reflex que pour les appareils à objectif fixe.  Il combine le capteur plus grand avec un nombre modéré de pixels, augmentant ainsi la vitesse et la performance ISO.  Mais il applique aussi un coefficient de conversion de 1.3X.  La Canon 1D Mark IV et la Canon 1D Mark III utilisent ce type de capteur.

APS-C (23.6mm par 15.8mm): la plupart des appareils Reflex de Canon, Nikon, Pentax, et Sony utilisent ce type de capteur.  Par contre le capteur APC-C de Canon mesure 22.2mm par 14.8mm alors que le capteur des appareils Sony, Pentax, Fujifilm, et Nikon (DX) a une dimension entre 23.5mm par 15.6mm et 23.7mm par 15.6mm.  La Ricoh GR (23.7mm par 15.7mm), la Canon EOS M (22.3mm par 14.9mm), les Sony NEX line, et les caméras Fujifilm utilisent tous des capteurs APS-C.

4/3 (17.3mm par 13mm): celui-ci est d'environ un quart de la dimension plein cadre.  C'est un standard ouvert Reflex créé par Olympus et Kodak et est utilisé dans tous les appareils d’Olympus et Panasonic.  Le coefficient de conversion est de 2X et double la longueur focale de la lentille.  La Olympus OM-D E-M1, la Olympus Pen E-PL5, et la Panasonic Lumix GH4 utilisent tous ce capteur.

Format CX (1 pouce): Nikon utilise ce format dans ses appareils Nikon 1 camera system, et Sony l’utilise dans la Cyber-shot DSC-RX100.  Le coefficient de conversion  est de 2.7X.

(Source: Wikipédia MarcusGR)


(Source: Wikipédia - Hotshot977)

Capteurs plus petits: 1/1.7 pouces (7.6mm par 5.7mm), 1/2.5 pouces (5.76mm par 4.29mm), 1/3.2, 1/2.3, 2/3, 1/3.2, 1/1.2, et 1/1.8, 1/2.7- pouces (5.37mm par 4.04mm)
Les appareils compacts comme la Canon PowerShot SX280 HS et les caméras Samsung Galaxy utilisent le capteur 1/2.3-pouces (6.17mm par 4.55 mm), alors que la Nikon P7700 a un capteur plus large de 1/1.7-pouces (7.44mm par 5.58 mm).

Les téléphones intelligents tel que le iPhone 5s et le HTC One ont un capteur 1/3-pouces (4.8mm par 3.6mm) et moins de pixels. La Nokia Lumia 1020 utilise un capteur de 1/1.5-pouces, de 41-megapixel avec un capteur CMOS.  La Sony Xperia Z1 utilise un capteur de 1/2.3-pouces de 20-méga pixels. La Samsung Galaxy S4 Zoom a un capteur de 13-méga pixels de 1/2.3-pouces.

La qualité d'image des téléphones intelligents est inégale.  Jetez un coup d'œil au vidéo de Molly Wood du New  York Times sur less autophotos prises avec téléphone intelligents.
Mythes des Mégapixels
La croyance populaire veut que plus il y a de méga pixels, plus la photo sera de qualité.  C'est un peu simple comme logique.  L'objectif et le logiciel intégré sont aussi importants.  Tout dépend de ce que vous voulez faire avec vos photos.  Si vous voulez imprimer de grandes photos ou avez l'intention de tronquer vos images, une haute résolution sera pratique.  Si vous avez l'intention d'imprimer des photos de dimension standard ou simplement partager vos photos en ligne, la résolution est moins importante.  Par contre, les photos haute résolution créent des fichiers plus gros et exigent plus de puissance de traitement pour travailler avec ces fichiers, alors que les fichiers à plus petite résolution ont plus de bruit de lecture et une qualité inférieure lorsque l'éclairage est faible.

L'achat d'un appareil photo
Avant de prendre une décision finale, visitez votre magasin de photographie local et posez des questions.  Lorsque vous aurez choisi quelque modèles intéressants, visitez des sites spécialisés comme Les numériques et Tom's Guide (en français) pour une autre opinion sur vos modèles.  Vous voudrez aussi regarder les évaluations des sites Cnet France, Pixel Valley ou 01net pour voir ce qu'ils ont à dire.  Vous pouvez aussi faire une recherche Google sur  ''évaluation d'appareils numériques'' et ainsi faire un choix judicieux.

Quelques liens intéressant:




_______________________________________________________________________

English version

Digital camera sensors
             

             The first electronic camera was built in 1975 by an Eastman Kodak engineer named Steve Sasson using a CCD (Charged-Coupled Device) image sensor.

             Digital cameras became common in the 1990's and all but replaced film cameras in the mid 2000's when they became affordable for consumers. They have evolved dramatically since they were first introduced, and by 2010, even cellphones had built-in digital cameras.

             The core of a digital camera is its sensor.  It determines image size, resolution, depth of field, range and camera size.

             The image sensor replaces the film.  All of the features from film are now built-into the image sensor.  Special effects are applied after the fact using software.  The sensor determines how your pictures will look, and image quality depends on how many pixels will fit on your sensor and their size.

             Sensor size is important. A smaller sensor will capture less of a scene than a full-frame sensor because it applies a crop factor to lenses.  Full-frame reference is the standard 35mm film.

Sensor types

There are two common types of sensors: CCD (Charged-Coupled Device) and CMOS (Complementary Metal-Oxide-Semiconductor).













CCD sensor on a flexible circuit board
(Source: Wikipedia)



CCD is the original image capture method and has better dynamic range and noise control.  It is still found in budget models but, because of its higher power consumption, most manufacturers have dropped it for CMOS.

             CMOS has evolved from an inferior product to a product that equals CCD standards.  Furthermore, it is more efficient, uses less power, has more functionality and is better at high speed bursts.











CMOS image sensor
(Source: Wikipedia)


Image sensors convert electrons into voltage.  A CMOS sensor has circuitry at every sensor.  Each pixel is read at the same time and then transmitted as digital data at the same time.  This makes for lots of circuitry but is very efficient.  On a CCD, the pixels are recorded on the chip and then sent through analog to a digital converter one by one to build the data.  This requires more processing power than CMOS but produces a cleaner image.

             Sigma use Faveon X3 sensors based on CMOS.  Live MOS is the brand name used by Leica, Olympus, and Panasonic in their Four Thirds System DSLRs since 2006, with quality equivalent to CCD and the power consumption of CMOS.

Sensor sizes

             Full-Frame (36mm by 24mm) is equivalent to 35mm film.  It is almost twice the size of APS-C sensors.  Pro level cameras like the Nikon D800, the Canon EOS 5D Mark III, and the Nikon D4 use these sensors.  Some fixed lens cameras like the Sony Cyber-shot RX1 and the Sony Alpha SLT-A99 also use full-frame sensors.

             Full-frame sensors have no crop factor and are great for macro photography and videos.  With the larger sensor comes a larger image file size and camera body size.

             APS-H (28.7mm by 19mm) (Active Pixel Sensor) is the most common type of sensor on consumer cameras both for DSLRs and fixed-lens cameras.  It combines a large sensor with a moderate number of pixels which boosts speed and ISO performance.  But it also applies a 1.3 crop factor.  The Canon 1D Mark IV and Canon 1D Mark III use this kind of sensor.

             APS-C (23.6mm by 15.8mm): Most DSLRs from Canon, Nikon, Pentax, and Sony use this kind of sensor.  However, the Canon APS-C sensor measures 22.2mm by 14.8mm while the Sony, Pentax, Fujifilm, and Nikon (DX) versions range from 23.5mm by 15.6mm to 23.7mm by 15.6mm.  The Ricoh GR (23.7mm by 15.7mm), the Canon EOS M (22.3mm by 14.9mm), the Sony NEX line, and Fujifilm cameras all use APS-C sensors.

             Four Thirds (17.3mm by 13mm) is about one quarter the size of a full-frame.  This is an open DSLR standard created by Olympus and Kodak and is used in all Olympus and Panasonic cameras.  The crop factor is 2X and doubles the focal length of the lens.  The Olympus OM-D E-M1, the Olympus Pen E-PL5, and the Panasonic Lumix GH4 have this sensor.

             CX format (1 inch):  Nikon uses this format on the Nikon 1 camera system.  Sony's Cyber-shot DSC-RX100 also uses this sensor.  The crop factor is 2.7X.















(Source: Wikipedia MarcusGR)




















 (Source: Wikipedia - Hotshot977)



Smaller sensors: 1/1.7 inch (7.6mm by 5.7mm), 1/2.5 inch (5.76mm by 4.29mm), 1/3.2, 1/2.3, 2/3, 1/3.2, 1/1.2, and 1/1.8, 1/2.7-inch (5.37mm by 4.04mm)
Point-and-Shoot cameras like the Canon PowerShot SX280 HS and the Samsung Galaxy Camera use 1/2.3-inch sensors (6.17mm by 4.55 mm), while the Nikon P7700 has a larger 1/1.7-inch (7.44mm by 5.58 mm) sensor.

             Smartphones such as the iPhone 5s and the HTC One have a 1/3-inch image sensor (4.8mm by 3.6mm) and fewer pixels. The Nokia Lumia 1020 boasts a 1/1.5-inch, 41-megapixel CMOS sensor.  The Sony Xperia Z1 carries a 1/2.3-inch, 20-megapixel sensor and the Samsung Galaxy S4 Zoom features a 13-megapixel, 1/2.3-inch sensor.
Smartphone picture quality is uneven. Take a look at this video from Molly Wood of the New York Times about selfies with Smartphones.
Megapixel myth
It is commonly thought that the more megapixels the better the pictures, but that’s just part of the story. Your lens and camera software are also important.  It also depends what you intend to do with your photos. If you want to make large prints or intend to do a lot of cropping, higher resolution is very useful.  If you intend to print standard size pictures or just share your photos online, resolution is less important.  What you'll encounter is larger files and greater processing power to work with high resolution photos whereas smaller resolution pictures will have more noise and poorer quality in low light.

Buying a camera
Before taking a decision, visit your local camera shop and ask questions.  Once you set your mind on a few models, visit specialized sites like Steves digicam and DPReview for a second opinion on the models.  You might also want to take a look at PC Magazines reviews, Tech Hive camera reviews to see what they have to say.  You can do a Google search on digital camera reviews and pick a few from the list.  It’s worth the added research to get a better idea of what to expect from your chosen models.

A few interesting links:

26 brilliant pranks for April fools 

Cow in the closet (Just for laughs) 

The charter: No to zombies