Les outils sont déjà entre nos mains. La direction qu’ils prennent dépend des valeurs que nous choisissons.
On demande souvent si la technologie est bonne ou mauvaise, comme si elle possédait une morale propre. Mais cette question cache un problème plus profond : le bien et le mal ne sont pas des propriétés de la technologie, ce sont le reflet de nos valeurs.
Un marteau peut construire une maison ou servir d’arme. La science nucléaire peut alimenter des villes en énergie ou les détruire. L’intelligence artificielle peut diagnostiquer des maladies ou automatiser des systèmes de surveillance. La même connaissance, les mêmes outils, des résultats différents. Ce qui change, ce n’est pas la technologie, mais les intentions et les valeurs qui guident son utilisation.
C’est pourquoi les opinions simplistes sur la technologie, « la technologie est dangereuse » ou « la technologie nous sauvera » passent à côté de l’essentiel. La technologie n’est ni héroïne ni ennemie. Elle amplifie les intentions humaines.
Le rôle de la méthode scientifique
Si nous voulons de meilleurs résultats, nous avons besoin de meilleures méthodes pour prendre des décisions. La méthode scientifique offre une manière structurée de résoudre les problèmes : observer la réalité, tester des idées, mesurer les résultats et corriger les erreurs. Elle remplace les suppositions, les idéologies et les opinions personnelles par des preuves et des vérifications.
Cependant, la méthode scientifique ne nous dit pas quelles doivent être nos valeurs fondamentales. Elle ne décide pas si nous voulons la guerre ou la paix, la compétition ou la coopération, le profit à court terme ou la survie à long terme. Ce sont des choix de valeurs.
Ce que la science peut faire, en revanche, est ceci :
une fois que nous avons défini nos valeurs, elle peut nous indiquer quelles actions sont cohérentes pour les atteindre.
Si notre objectif est la domination, la science peut nous aider à créer des armes puissantes.
Si notre objectif est la concentration des richesses, la science peut optimiser des systèmes qui exploitent les ressources et les populations.
Si notre objectif est le bien-être humain et l’équilibre écologique, la science peut nous aider à concevoir des systèmes qui assurent l’abondance sans détruire la planète.
La science est une méthode.
La technologie est un outil.
Les valeurs déterminent la direction.
Le bien et le mal sont des jugements liés aux valeurs
Lorsque nous disons qu’une chose est « bonne » ou « mauvaise », nous exprimons en réalité son alignement ou son conflit avec nos valeurs.
Si votre valeur principale est le profit à tout prix, une automatisation qui remplace des travailleurs peut être considérée comme « bonne ». Si votre valeur est le bien-être humain, cette même automatisation peut être jugée « mauvaise », sauf si la société garantit que les besoins des personnes restent satisfaits.
Cela montre que le bien et le mal sont des étiquettes subjectives fondées sur des systèmes de valeurs, et non des propriétés universelles des machines.
Cette prise de conscience mène à une question plus utile :
Quelles valeurs voulons-nous que notre technologie serve ?
Voulons-nous des systèmes qui maximisent la compétition, la rareté et les inégalités ?
Ou des systèmes qui maximisent la santé, l’éducation, la durabilité et la coopération ?
Pourquoi nous voulons naturellement que la technologie nous dépasse
Certaines personnes craignent les machines plus intelligentes, comme si l’intelligence elle-même était une menace. Pourtant, nous avons toujours voulu que nos outils dépassent nos propres capacités.
Nous avons inventé le télescope parce que nos yeux sont limités.
Nous avons construit des grues parce que nos muscles sont faibles.
Nous avons créé des calculatrices parce que notre calcul mental est lent.
Et aujourd’hui, nous développons des ordinateurs et des intelligences artificielles parce que notre capacité à traiter l’information est limitée.
Vouloir qu’une machine soit plus performante que nous n’est pas dangereux, c’est précisément la raison d’être des outils.
Vous ne craignez pas un microscope parce qu’il voit mieux que vos yeux.
Vous ne craignez pas un bulldozer parce qu’il soulève plus que vos bras.
De la même manière, il est logique de construire des ordinateurs capables d’analyser plus de données que le cerveau humain.
Ce qui importe n’est pas la puissance des outils.
Ce qui importe, c’est qui les contrôle et dans quel but.
Des outils plus intelligents n’impliquent pas des motivations propres
Une autre confusion fréquente consiste à penser que des outils plus intelligents doivent forcément développer leurs propres objectifs ou motivations. Pourtant, cela n’est pas une nécessité.
Une calculatrice effectue des calculs plus vite que n’importe quel humain, mais elle n’a aucune ambition.
Un pilote automatique dirige un avion avec une précision remarquable, mais il n’a aucun désir.
Un logiciel médical peut identifier des tumeurs invisibles à l’œil humain, mais il n’a aucun agenda personnel.
L’intelligence, dans un sens pratique, est la capacité à traiter des informations et à résoudre des problèmes, pas l’existence de désirs ou d’intérêts personnels.
Nous pouvons concevoir des systèmes capables de résoudre des problèmes puissamment sans leur donner d’intérêts indépendants, comme nous l’avons fait avec d’innombrables outils auparavant.
Apprendre ne devient jamais inutile
Certains craignent que, à mesure que les machines deviennent plus performantes, l’apprentissage humain devienne inutile. En réalité, c’est l’inverse qui se produit.
Plus les outils deviennent puissants, plus il devient important de les comprendre.
Nous enseignons encore les mathématiques malgré l’existence des calculatrices.
Nous enseignons encore la navigation malgré l’existence du GPS.
Nous enseignons encore la médecine malgré l’aide des machines.
Apprendre permet aux humains de :
- Comprendre les systèmes dont ils dépendent
- Vérifier les résultats
- Détecter les erreurs ou les abus
- Améliorer les conceptions
- Faire des choix éclairés fondés sur des valeurs
Une société qui cesse d’apprendre devient dépendante sans comprendre, une condition extrêmement fragile.
La véritable question : quel futur voulons-nous ?
Le débat sur le caractère bon ou mauvais de la technologie détourne souvent l’attention du véritable enjeu : notre système de valeurs collectif.
La technologie amplifie les valeurs dominantes d’une société.
Si la compétition, le profit et les gains à court terme dominent, la technologie accentuera les inégalités, l’épuisement des ressources et les conflits.
Si la coopération, la durabilité et le bien-être humain dominent, la technologie pourra créer l’abondance, réduire la souffrance et restaurer l’équilibre écologique.
C’est pourquoi un changement profond de valeurs est nécessaire, et pas seulement de nouvelles machines.
Une manière de penser globale et scientifique associée à un engagement envers le bien-être de toute l’humanité et la préservation des écosystèmes de la Terre pourrait transformer la technologie en force de régénération planétaire plutôt qu’en force de destruction.
La technologie est un miroir
En fin de compte, la technologie reflète l’humanité elle-même.
Elle révèle ce que nous valorisons réellement, et non ce que nous prétendons valoriser.
Si nos systèmes produisent la pauvreté au milieu de l’abondance, cela révèle nos priorités.
Si nos outils détruisent les écosystèmes, cela révèle notre vision à court terme.
Si notre technologie soigne, éduque et préserve la vie, cela révèle notre sagesse.
La technologie n’est ni bonne ni mauvaise.
Elle est un miroir qui reflète nos valeurs.
L’avenir de la technologie n’est donc pas une question technique, c’est une question humaine.



Commentaires