L’informatique est la science du traitement automatique de l'information digitale par l'exécution de programmes informatiques par des machines (des systèmes embarqués, des ordinateurs, des robots, des automates, etc.).
Ces domaines d'application sont séparés en deux groupes :
Théorique : détermine les concepts et les modèles
Pratique : s'occupe des méthodes concrètes de mise en œuvre
Certaines branches de l'informatique peuvent être très difficile à comprendre, comme la complexité algorithmique, et d'autres peuvent être plus proches d'un public profane. Ainsi, la théorie des langages reste une discipline plus accessible aux programmeurs (description des ordinateurs et méthodes de programmation), tandis que les métiers liés aux interfaces homme-machine sont accessibles à un plus large public.
Les branches de l’Informatique
Comme d'autres disciplines, l’informatique comporte plusieurs sous-disciplines ou plusieurs domaines. Un sous-ensemble de ces domaines est l'informatique fondamentale. L'informatique étudie certaines questions fondamentales qui sont directement utiles du point de vue pratique.
Algorithmique
Ce sont des techniques les plus efficaces pour traiter un problème donné (trier un ensemble d'objets, trouver un objet minimal (sinon minimum) d'un ensemble, trouver un chemin d'un endroit à un autre).
Structures de données
C’est la meilleure approche pour organiser un ensemble de données dans le but d'y accéder rapidement. Certains autres domaines de l'informatique fondamentale sont plus abstraits.
Calculabilité
Délimiter avec précision pour quels problèmes il est théoriquement possible d'écrire un programme informatique qui le résout et pour quels problèmes ce n'est pas possible.
Logique
La force de la matérialisation de différents types de logique et la correspondance avec d'autres systèmes formels. D'autres domaines font partie de l'informatique pratique.
Programmation
Ensemble de méthodes pour organiser un programme de façon qu'il soit facilement modifiable (insertion facile de nouvelles fonctionnalités) sans risque d'introduction de défauts (en anglais : bugs).
Génie logiciel
Techniques pour gérer le développement d'un logiciel informatique de façon à obtenir un compromis acceptable entre qualité du produit final et coût du développement.
Informatique multimédia
Ensemble de méthodes permettant de modifier, de synthétiser et d’analyser des images et des sons numériques de manière rapide et avec une qualité acceptable.
L’informatique dans le digital
Dans les technologies numériques ou digitales, les informations (textes, images, sons…) sont représentées par des suites de nombres binaires. Ces variables discrètes permettent de créer, stocker, traiter et diffuser toutes formes de données et connaissances. Au final, nous serions donc tentés de nous s’imprégner de l’informatique et du digital puisque le second utilise les ressources du premier.
Par nature, l’informatique structure et centralise. C’est un constat, non une impertinence. L’architecture informatique, même si elle évolue depuis quelques années, a besoin d’aborder le matériel et le logiciel avec des méthodes rationnelles et analytiques.
Pourquoi apprendre l’informatique ?
Tout d'abord, pourquoi choisir une carrière en informatique ? La première raison séduisante, est que l'informatique donne une certaine garantie d'embauche. L'effectif de l'industrie du logiciel ne cesse d'augmenter. Même les industries traditionnellement orientées vers des produits autres que le logiciel proprement-dit, recherchent de plus en plus d'informaticiens. La raison est simple : les produits de haute technologie comportent une part de plus en plus importante de logiciel. D'après Alcatel, 60% du coût d'un téléphone portable est dû au logiciel (cité par G. Kahn). Pour réaliser ces logiciels, l'industrie a besoin d'informaticiens ayant une bonne formation à la fois en informatique pratique (programmation, génie logiciel, compilation) et en informatique fondamentale (algorithmique, structures de données). De plus, les connaissances nécessaires pour produire ces logiciels suivent l'évolution de la complexité de ceux-ci, à savoir qu'elles augmentent chaque année. Dans un avenir proche, seules des études en informatique vont permettre la production efficace et économique de ces logiciels et, par conséquent, des produits dans lesquels ils sont intégrés.