- Registrato
- 27 Agosto 2012
- Messaggi
- 28,221
- Reaction score
- 7,765
Con le auto che guidano da sole stiamo già affrontando problemi di etica.Il concetto fondamentale è che il machine learning, come dice il nome, non crea concetti dal nulla, quello che produce è una elaborazione di dati da prendere all'esterno. Sembra che imparino più velocemente solo perchè sono instancabili e hanno molti più dati di noi a disposizione, il training iniziale non è per niente semplice, ma dopo diventa replicabile a piacimento. Codesti robot non hanno una "tabula rasa", gli hanno fatto un download di una sostanziosa base informativa prima. Altrimenti non saprebbero letteralmente da che parte rifarsi.
Il problema da sottolineare è che la macchine non dispongono di coscienza ed etica, non si fermano a riflettere se quello che stanno facendo è giusto, lo fanno e basta se coincide con quanto impartito, e questo non lo decidono loro.
Per questo bisogna stare molto attenti. Eventuali disastri dipendono da noi, non dalle macchine.
Se sono in un auto evoluta e sta per fare un incidente ma ha la possibilità di girare per evitare il confronto... Però facendo così va a sbattere su una persona... E giusto o sbagliato?
E se può scegliere tra andare a sinistra e prendere un vecchio o andare a destra ma prendere un bambino, che deve fare?
Non sono cose che impara in questo caso. Sono cose che noi dobbiamo decidere.