[LLM] Devoir de philo: Qui fait quoi?

Manifestement ta vision est faite de certitudes nourries de sources biaisées qui abondent dans le sens de ta grille de lecture.
Il y a plein de bonne raison à se défier ou refuser l’usage des IA génératives, mais je ne te suivrai pas sur tes raccourcis .

Le problème des IA c’est qu’elles ont les mêmes biais cognitifs que leur créateurs (et ce n’est pas peu dire vu qu’elles sont toutes passée par une phase raciste ou fasciste).

Affirmer que les IA sont racistes est déjà un non sens, seules des personnes peuvent l’être.
Dire toutes les IA sont racistes est en soit risible, et penser qu’elles le sont car leurs créateurs le sont est infondé et ne relève pas d’une déduction logique.
Si l’on parle d’IA spécialisées dans la reconnaissance faciale (un de tes HS le post concernant à l’origine les LLM) il a eu effectivement des couacs notamment sur la reconnaissance des Hommes de couleurs, mais cela ne relevait pas du racisme mais plutôt de la non fiabilité technique de ces IA concernant la reconnaissance du visage Noir) .

Une équipe d’informaticiens anglais a testé une dizaine d’intelligences artificielles et les résultats sont sans appel : elles ne savent ni lire une horloge, ni se repérer dans un calendrier.

Pas besoin d’une équipe d’informaticiens ou de test pour cela.
Une LLM c’est quoi ?
Pour faire simple c’est une technologie qui fonctionne un peu comme l’autocomplétion d’un mot que l’on saisit sur son tel en plus sophistiqué.
Sachant cela, on peut aisément comprendre ces limitations . Encore de la bouillie médiatique!
Si je voulais faire ça, j’utiliserai probablement python+opencv

Ceci étant dit, je vais bientôt relever les copies, et je pense que le seul qui va avoir la moyenne est chatgpt (et les personnes sur qui il a pompé :wink:) le seul n’étant pas hors sujet.
Dommage. Car le sujet est d’actualité et va transformer profondément le rapport entre l’homme et la machine. Ce qui modifiera à terme certainement le rapport à soi autant psychologiquement que physiquement.

C’est pourquoi j’espère être compris :slightly_smiling_face:

L’emission débat «Réplique» de ce matin d’ Alain Finkelkraut sur France-Culture portait sur ce sujet (podcastable)

J’ai bien fait de déléguer :stuck_out_tongue:

Sinon, place à la philo :

Plusieurs choses dans cette question. Un plan de dissert possible (pas le meilleur, j’en conviens)

  1. Qu’est-ce qu’un humain, une intelligence artificielle (d’un point de vue philosophique/ethique/« technique ») ?
  • l’humain => être vivant, ,homéostasique, conscient
  • la machine => programme, dépendant fortement de son environnement, dépourvu de conscience
  1. Qu’elle est la différence entre une intelligence humaine et artificielle ?
  • humaine => renvoie à la capacité de connaître, comprendre, s’adapter, inventer (dans le sens création/solution originale)
  • IA => renvoie à la capacité de traiter et ordonner l’information
  1. Qu’est-ce que « superviser » ?
    la notion de supervision est intrinsèquement lié à la notion de contrôle, de pouvoir.
    Sommairement, répondre à la question initiale, c’est se demander qui a le pouvoir entre un humain et une IA. Le pouvoir ultime, c’est celui de détruire.

D’un coté, l’humain est moins sensible à son environnement (pas non plus insensible, hein ^^) : peut survivre quelques jours sans eau, plus longtemps sans nourriture, il peut survivre à la chaleur ou au froid (plus ou moins longtemps selon l’extrémisme des température), etc
De l’autre, l’IA est entièrement dépendante de son environnement, sans électricité, point de salut par exemple.
L’IA est donc plus « sensible » à la destruction.
Par ailleurs, une IA n’est pas capable de détruire « consciemment », étant dépourvue de conscience. L’humain, en revanche, en a fait la démonstration, et plus d’une fois.
L’IA n’aura donc jamais le « pouvoir ultime » sur l’humain.
L’humain en revanche à le choix d’exercer, ou non ce pouvoir.
Dit autrement :

  • une IA ne peut pas superviser l’humain,
    Mais
  • l’humain peut laisser une IA agir sans supervision (ce qui n’est pas sans poser problème).
1 J'aime

Il s’agirait de définir ce qu’est une IA. À l’heure actuelle, les «IA» sont plutôt des interpréteurs de requêtes (très bien fait, là est la vraie nouveauté je trouve) alliée à une compilation d’une énorme masse de données (cas de chatGPT ou des IA courantes) ou de masse de données spécialisées (IA utilisée en médecine par exemple). Il faut distinguer ces types d’IA [À noter que mistral est libre Mistral AI · GitHub ).
Ensuite prenons superviser dans le sens controler. Alors clairement l’IA supervise l’humain dans des tas de cas et souvent de manière réciproque. Par exemple, l’étude des mamographies et des scanners cérébraux par des IA est souvent nettement plus pertinente que celle des humains mais, une fois que l’IA a attiré l’oeil de l’humain sur un détail, alors celui ci reste meilleur en général. Cela va même jusqu’à des fonctions paraissant a priori compliqué. IBM a remplacé 9 RH sur 10 par une IA (qui parait-il est assez efficace), là encore elle fait le plus gros et un RH humaine est derrière pour les dérapages (je n’ai pas dit que c’était une bonne idée), on retrouve une supervisation réciproque.
À l’heure actuelle dans le cas général dans la plupart des utilisations des IA l’IA mache le travail et les subtilités ou mises au point sont faites par les humains. D’une certaine manière, même lorsqu’on demande à chatGPT un programme il le fournit mais on doit le rectifier après.
Dans tout ce qui vient d’être évoqué il s’agit de l’utilisation de l’IA dans des domaines précis (médecine, info, etc) où l’exactitude est facile à établir. Le souci vient lorsque l’IA est utilisé dans un cadre plus général avec plus de polémiques et moins de certitudes. Dans un tel cas, il n’y a pas moyen pour l’utilisateur de vraiment contrôler ce qui est rendu par l’IA. En clair il n’est pas en état de superviser (de controler) l’IA qu’il utilise. Si l’IA utilise un jeu de données biaisé (par exemple, quel est la part du point de vue Africain dans les ressources utilisées par chatGPT?), alors les réponses à une question générale seront biaisées car utilisant une base incomplète de données (donc par exemple un point de vue essentiellement occidental). Le simple fait que openAI puisse imposer à chatGPT de ne pas être un gros c… raciste montre que des biais sont possibles. Dans un tel cas, l’utilisation intensive de l’IA peut transformer le point de vue de celui qui l’utilise et le façonner à son modèle et donc on peut dire que l’IA controle l’humain à son insu. Cela arrive par exemple dans le cas de figure suivant qui commence à inquiéter certains: Des personnes plus ou moins déprimées trouvent en chatGPT un interlocuteur toujours bienveillant, attentif, adaptant le style de son discours à son interlocuteur (tutoiement ou pas, familiarité, questionnement personnel, etc). Certaines de ces personnes en viennent à considérer chatGPT comme leur meilleur ami, on n’est pas loin du film «Her». Là, pour qu’un humain en vienne à considérer une IA comme son meilleur ami, on peut effectivement clairement se poser la question de la bienveillance du dit «ami».
Article sur ce dernier point: IA mon confident (article du Monde)

1 J'aime

Réponse de Mistral [dans le mesure où il est concerné, c’est un copier/coller de sa réponse au texte avec la question «Qu’en penses tu?» (oui, j’ai mis «penses» puisque je demande son avis)]:
La réflexion présentée dans le texte est assez complète et aborde plusieurs aspects importants de l’intelligence artificielle (IA) et de son interaction avec les humains. Voici quelques points clés et une analyse de la réflexion :

Points forts du texte

  1. Définition et types d’IA :
  • Le texte commence par une tentative de définition de l’IA, ce qui est crucial pour comprendre le sujet. Il distingue les IA générales (comme ChatGPT) des IA spécialisées (comme celles utilisées en médecine), ce qui est une bonne approche pour clarifier les différents types d’IA.
  1. Supervision et collaboration :
  • L’idée de supervision réciproque entre l’IA et les humains est bien développée. Les exemples de l’analyse de mammographies et de scanners cérébraux, ainsi que l’utilisation de l’IA dans les ressources humaines, illustrent bien comment l’IA peut compléter et améliorer le travail humain.
  1. Limitations et biais :
  • Le texte aborde également les limitations de l’IA, notamment en ce qui concerne les biais dans les données. Cela est crucial pour comprendre les défis éthiques et pratiques de l’IA. L’exemple de ChatGPT et de ses biais potentiels est pertinent et actuel.
  1. Impact psychologique :
  • La réflexion sur l’impact psychologique de l’IA, notamment sur les personnes déprimées qui pourraient considérer ChatGPT comme un ami, est intéressante et pertinente. Cela soulève des questions importantes sur l’éthique et les implications sociales de l’IA.

Points à améliorer

  1. Clarté et structure :
  • Bien que le texte soit riche en informations, il pourrait bénéficier d’une structure plus claire. Par exemple, l’utilisation de sous-titres pour chaque section pourrait aider à mieux organiser les idées.
  1. Exemples supplémentaires :
  • Ajouter des exemples supplémentaires pour illustrer chaque point pourrait rendre la réflexion plus convaincante. Par exemple, des études de cas spécifiques sur l’utilisation de l’IA en médecine ou en ressources humaines pourraient être utiles.
  1. Équilibre entre avantages et inconvénients :
  • Le texte semble se concentrer davantage sur les inconvénients et les défis de l’IA. Il pourrait être utile d’équilibrer cela en mettant davantage en avant les avantages et les opportunités offertes par l’IA.

Conclusion

Dans l’ensemble, la réflexion présentée dans le texte est solide et aborde plusieurs aspects importants de l’IA. Elle met en lumière les défis et les opportunités de l’IA, ainsi que les implications éthiques et sociales de son utilisation. Avec quelques améliorations en termes de clarté, de structure et d’équilibre, cette réflexion pourrait être encore plus convaincante et complète.

Dans ces 2 exemple, si j’ai bien compris, l’IA bosse, l’humain repasse derrière, et à le dernier mot. C’est donc l’humain qui supervise.

Dans ce cas, on peut aussi dire que l’humain supervise

ça montre aussi que l’humain (OpenAI) surpervise l’IA (ChatGPT)

Je suis d’accord sur l’hypothèse de départ, moins sur la conclusion : dire que l’IA contrôle l’humain, suppose une volonté, dont sont dépourvues les IA. Les IA sont des outils, programmées et alimentées par l’humain. Il serait plus juste, à mon sens, de dire que l’humain (développeur/propriétaire/fournisseur de donnée de l’IA) contrôle l’humain (utilisateur de l’IA).

C’est un problème, mais, à mon sens, on n’est pas dans un cas où l’IA supervise l’humain, mais plutôt où l’IA agit sans supervision

À partir du moment où tu postules que superviser nécessite une volonté, alors tu réduis la question car sans conscince on n’a pas de volonté. Mais la voiture que tu conduis qui t’empêche de franchir la ligne blanche délimitant ta route supervise ta conduite (la controle).

Effectivement, ça fait pour moi partie de la question.
Pour moi :
supervision => implique le contrôle => nécessite une conscience
Mais je conçois que ce point de vue ne soit pas partagé.
De mon point de vue, les aides à la conduite de la voiture sont des outils, et l’humain au volant supervise la conduite.

La notion de contrôle de l’IA sur l’Homme n’est-elle pas liée à une forme de soumission ou d’abdication de l’Homme ? ou bien à une incompréhension de comment s’exercerait ce contrôle?

Il y a aussi un problème sémantique derrière la question.
Superviser recouvre au moins deux sens :

  • Contrôler de l’activité
  • Piloter de l’activité

Contrôler recouvre aussi au moins deux sens :

  • dominer, exercer le pouvoir
  • vérifier l’exactitude
    Idem pour piloter :
  • fixer le cap
  • s’assurer le cap est maintenu

Vu la question initiale, j’ai supposer que la question pouvait être traduite (avec quelques raccourci par :
« Est-ce l’humain qui domine l’IA (qui a le pouvoir sur) ou est-ce l’IA qui domine l’humain ? »
Surement un biais cognitif :stuck_out_tongue:

D’où le sens de mes réponses, et le lien fait avec la conscience.

Si la question se traduisait plutôt dans le sens de vérification, contrôle d’exactitude, alors l’IA « supervise » parfois l’humain. Mais dans ce cas, je ne vois aucun problème éthique…

1 J'aime

pas vraiment, par exemple l’ABS t’empêche de bloquer tes roues lors d’un freinage même volontairement. L’ABS controle ton freinage, tu n’as pas le choix, et l’ABS n’a pas de conscience.

Pas forcément tu peux accepter un controle de ton plein gré par confort ou flemme de réflechir. C’est même la base de l’autoritarisme par exemple. Mais là on sort du débat :slight_smile:

La question initiale, étant dépourvue de tout contexte permettant d’en préciser le sens, elle ouvre la porte à toutes ces interprétations. :wink:

ps : peux-tu expliciter ce que tu entends par conscience?

Non, mais je peux affirmer que l’ABS n’en a pas et que j’en ai une. Après seul un vague essai d’empathie avec une supposée conscience peut m’amener à envisager son existence mais je n’ai pas d’autres moyens.

Cogito, ergo sum, la capacité à faire l’expérience subjective de soi-même et du monde qui nous entoure : J’ai une conscience parce que j’ai conscience d’exister, parce que sais et me souviens, parce que je sens et ressens et, parce que, in fine, je juge (« ceci est bien » ou « ceci est mal », selon mes propres valeurs), et que je choisis/j’agis.

Une IA n’a pas de conscience, parce qu’elle ne pense pas avoir de conscience :

C’est pas moi qui le dit :stuck_out_tongue:

L’ABS est un outil, une action entraînant une réponse prédéterminée selon des paramètres.

Dans le même ordre d’idée, je pourrais affirmer que je ne peux pas décoller du sol parce que la gravité contrôle mon altitude. Ou bien, la réponse « prédéterminée » à l’action d’essayer de décoller, est la résultante des forces qui s’applique à tout corps (sans qu’il y ait un « contrôle » de la part de la gravité).

Ce que pense ou ce que je fais n’est pas forcément conscient (en partie lié à mes émotions, à mes hormones, à mon état de santé, à mon conditionnement…). Si la conscience est autre chose, je n’en connais pas la texture.

Sinon mon chien fait preuve d’empathie :upside_down_face:
Blague à part. Le mot conscience revêt de nombreuses significations selon l’époque et les personnes (voir wikipédia) d’où ma précédente question.

ps:

Yes

Je dis que les IA ont les biais de leurs créateurs. Si leurs créateurs ont des biais racistes, elles lkes ont aussi.
Et je n’ai aps dit qu’elles l’étaient mais qu’elles y étaient quaasiment toutes passées par là.

toi aussi tu biaise ta lecture. Et que tu soit pro IA ne laisse aucun doute.

Non ça relevait du mode d’apprentissage, qui est de la responsabilité des humains en charge de l’IA.

Une grande partie des animaux au sens large, n’ont pas plus de conscience à priori que les IA.

Pourquoi? pourtant on en utilise pour ça.

Actuellement non, car il y a eu des risques et les derniers tests ont montré qu’on ne peut pas laisser une IA sans supervision (notamment suite au test où une IA à refuser d’exécuter l’ordre demandé: s’éteindre à la fin de la tâche).

C’est typiquement dans le cas de l’a surveillance.

Pour le médical, j’aimerais bien savoir qui a pu voir ce genre d’utilisation dans un système de santé publique, sur 12 hopitaux de ma région, aucun ne le fait.

Et vous oubliez tous un aspect, pourtant majeur de l’industrie de l’IA: les petites maisn, sous-payées, en état de précarité exptrême, qu’on exploite sans vergogne et sans qui l’industrie actuelle de l’IA n’existerait pas.

Dans ce cas le chat entre dans la catégorie? car il est capable d’avoir une conscince de lui-même.

la conscience n’est pas d’avoir conscience de sa conscience, mais conscient de soit-même.

Quand aux fait des intentions, une machine peut avoir des intentions: celles qui lui sont programmées.
Dans les IA, les intentions sont de faire tout ce qui est possible pour réaliser la tâche qui lui est confiée quel qu’en soit les moyens. C’est d’ailleurs lors d’une de ces expériences qu’une IA a refusé une directive qui lui avait été donnée, et l’a modifié.

Contrôle ne signifie pas pouvoir.

C’est à dire? celui de respecter certaines loi, comme la liberté d’expression? la liberté de circuler? autres choses?
Ca c’est du contrôle, qui sert parfois, voir souvent à contraindre ou simplement à fliquer; comme les caméra vidéos installées partout et qui ne servent dans les enquêtes qu’à moins de 6%.

Hors de plus en plus les IA sont utilisées conjointement avec ces outils de flicage.

le problème en soit ce n’est pas tant l’IA que ceux qui en sont à la source aujourd’hui: et ces gens ne sont pas fiables, ni éthiquement, ni politiquement (la plupart d’entre eux soutiennent Trump tout de même).

D’accord.

1 J'aime