Aprile 19, 2024

palermo24h

Notizie italiane in inglese – Notizie italiane oggi. Scopri gli aggiornamenti e le ultime novità in Italia all'interno del nostro sito. Aggiornamenti quotidiani dall'Italia in italiano.

scienza.  L’intelligenza artificiale ha una morale?

scienza. L’intelligenza artificiale ha una morale?

Dovrebbero rendere le nostre vite più facili ed essere utili per noi. Ma l’intelligenza artificiale obbedisce ai valori morali? Sei guidato da obiettivi che consentono agli esseri umani di vivere bene, o addirittura di vivere meglio insieme. Anche Kristen Solnon, ricercatrice in informatica, si sta ponendo la domanda.


Muriel Florin
Oggi alle 06:00

Non dimentico nulla, pianifico i tuoi appuntamenti, calcolo, traduco, ti guido, guardo la tua strada, ti informo, mi occupo di te, e domani ti tratterò bene… Mille grazie, sussurra dolcemente alle nostre orecchie. Anche il suono metallico dell’intelligenza artificiale (AI)…

Ma altre voci si chiedono. La moralità è sicura? L’intelligenza artificiale applica ovunque un certo numero di regole considerate buone, secondo il sistema di valori fornito come bussola per vivere bene nella società?

L’intelligenza artificiale non nasce automaticamente.

“L’intelligenza artificiale non nasce spontaneamente. È un algoritmo progettato dall’uomo, in risposta a un comando che può corrispondere a un bisogno, ma non sempre”, ricorda Kristin Solnon. Questo scienziato è interessato alle questioni etiche nell’informatica.

Certo, questo algoritmo può incorporare regole etiche, data la capacità di anticipare tutti gli scenari per fornire loro le risposte più appropriate. Il mondo cita il “dilemma del tram”: a un bivio i freni non funzionano più. A destra una decina di persone, a sinistra una sola. Facile, uccidiamo una persona invece di dieci. Ma cosa succederebbe se questa persona facesse ricerche che potrebbero salvare centinaia di vite? Se il tram normalmente corre a destra e una persona deve essere sacrificata gettandola sui binari? Le risposte che devono essere implementate nell’algoritmo diventano meno chiare… Sarà la più etica?

Ricercatore: Christine Solnon

Kristen Solnon è un istruttore nel dipartimento di tecnologia dell’informazione presso Ensa de Leon. Svolge attività di ricerca al Citi e all’Inria (Istituto di Ricerca in Informatica e Automazione).

READ  Le Covid bientôt remplacé par une autre maladie mortelle ? Cette effrayante mise en garde de l'OMS

Lavora specificatamente nel campo dell’intelligenza artificiale, in particolare nel supporto alle decisioni.

Kristin Solnon è anche interessata alle questioni etiche nella progettazione di strumenti digitali.

La pubblicità non è necessariamente etica

Potrebbero esserci altre violazioni della moralità. In particolare per quanto riguarda obiettivi orientati più al profitto che al bene comune. È l’intenzione che conta… l’intenzione della persona che controlla questa o quella applicazione.

Ad esempio, Waze, l’app che calcola i percorsi tenendo conto delle condizioni del traffico, mira a essere utilizzata da più persone possibili: per servire l’interesse dell’utente, l’algoritmo può quindi consigliargli di guidare nei pressi di una scuola, o di un ospedale, in un percorso che la comunità vorrebbe percorrere, ma è il contrario a mantenerlo”, osserva Kristen Solnon.

“Ci sono anche app che consigliano hotel o ristoranti che sono effettivamente partner commerciali, indicando che sono stati selezionati in base a criteri oggettivi”. L’integrità e l’onestà non vanno necessariamente d’accordo con gli interessi commerciali.

Questi interessi commerciali a volte entrano in conflitto anche con il lusso. “Lo scopo dei social media non è etico. Cercano di tenere prigioniero l’utente il più a lungo possibile e creano meccanismi di dipendenza potenti e dannosi. Oltre ai ‘mi piace’, ci sono lo scorrimento infinito, i video che si susseguono , e i sistemi in cui devi avere punti… Alcune persone semplicemente non ne escono e, ironia della sorte, non hanno più una vita sociale”, osserva Kristen Solen. Clic-clac, non dormiamo più. In assenza di garanzie, la salute è danneggiata.

Leggi anche

>> MEDJOURNEY: Cos’è questo software che crea immagini false di Trump, Macron o del Papa?

distorsioni nei dati

Un altro aspetto dell’intelligenza artificiale è l’apprendimento automatico. Non ideale neanche in termini di valori repubblicani. Perché, per addestrare un algoritmo a rispondere meglio a un compito, gli devono essere insegnati migliaia, persino milioni, di parametri. L’etica dell’algoritmo dipende dalla qualità dei dati. Ma date le dimensioni, è molto difficile controllarli tutti. E poiché la società stessa ha pregiudizi, troviamo questi pregiudizi nei dati e quindi nell’algoritmo.

READ  L'influenza accelera, la bronchiolite e il Covid-19 rallentano, secondo la sanità pubblica francese

Così, un noto compilatore trasforma sistematicamente un chirurgo in un chirurgo e un’infermiera in un’infermiera, anche se si è avuto cura di specificare che l’infermiera aveva la barba… Uno degli ultimi bot capaci di conversare, ChatGPT, non è privo di critiche. “Possiamo mettere in discussione il plagio, citando fonti o persino inventando riferimenti”, sottolinea Christine Solon.

Leggi anche

>> ChaptGPT sa come fare il vino giallo, ma sa poco del Giura

IA cattiva? Attenti a non confondervi! “Quello che è immorale non è l’algoritmo ma le persone dietro l’algoritmo. Quelle che mettono a disposizione gratuitamente questo servizio senza porre tutele, con obiettivi non necessariamente etici, che spesso sono proprio economici”. Fino a quando non disumanizziamo e complichiamo le nostre vite, con discussioni che vanno in tondo con i chatbot per esempio. espandere il pensiero.

“Prima di progettare un’applicazione, dovresti considerare gli usi. Un ingegnere umano dovrebbe chiedersi se è un bene per la società e dire di no se non lo è”, ritiene Christine, che ricorda che “il progresso tecnologico non è necessariamente progresso sociale”. Invece di progettare algoritmi che rischiano di degradare la vita di molte persone, ce ne sono abbastanza per lavorare per rendere il nostro mondo più umano e più sostenibile”.

Anche su Science News

Ma perché girano? Avanzamento nell’illustrazione fotografica / Remy Perrin

L’inebriante danza del gorilla

Zola è un gorilla di 14 anni che risiede allo zoo di Dallas in Texas. La sua danza frenetica è stata filmata dal custode. Questo video ha suscitato l’interesse dei netizen… e dei ricercatori.

Lungi dall’essere un caso isolato, questa velocissima rotazione sembra essere condivisa con altre grandi scimmie, il cui orecchio interno funziona come quello umano: i segnali nervosi inviati al cervello si scontrano con i segnali provenienti dagli occhi, alterando la percezione.

READ  3 découvertes sur la façon dont les animaux se soignent

Sono necessarie ulteriori ricerche sulla motivazione alla base di questo tipo di euforia.

Nostra Signora… di ferro

Notre Dame de Paris, la prima “Iron Lady”? Gli scienziati hanno evidenziato l’uso più antico del metallo nella sua costruzione. Tra le tonnellate di metallo portate alla luce dalle fiamme ci sono migliaia di materiali di base utilizzati per sigillare insieme i blocchi di pietra a tutti i livelli. I più antichi risalgono al 1160.

Notre Dame è senza dubbio la prima cattedrale gotica in quanto il ferro è stato pensato come un vero e proprio materiale da costruzione per creare architetture senza precedenti.

Il punto è, per sempre giovane. Immagine di Audrey Dusutour/CNRS

Sul punto, l’invecchiamento può essere reversibile!

Il punto (Physarum Polycephalum) è un organismo unicellulare che manca di un sistema nervoso. Continua a stupirci. In un nuovo studio, gli scienziati dimostrano che l’invecchiamento è parzialmente reversibile: un vecchio blob può comportarsi come una piccola bolla dopo un periodo di dormienza o dopo essersi fuso con una piccola bolla. In particolare, ha iniziato a muoversi da giovane.

D’altra parte, il vecchio punto (a differenza degli animali) non perde la sua capacità di apprendere.