e-daily.gr
Ο Στίβεν Χόκινγκ είχε μια τελευταία προειδοποίηση για την ανθρωπότητα
πριν πεθάνει και ανατριχιάζει
Ο φυσικός καθηγητής Stephen Hawking πέθανε το 2018 - πολύ πριν το
ChatGPT και άλλα εργαλεία κάνουν την τεχνητή νοημοσύνη μέρος της
καθημερινότητάς μας.
Τώρα, αρχίζουμε να είμαστε όλο και πιο νευρικοί σχετικά με την άνοδο της
τεχνητής νοημοσύνης - τι μπορεί να σημαίνει για θέσεις εργασίας, για την
διάδοση παραπληροφόρησης και πολλά άλλα - αλλά ο Χόκινγκ ήταν πολύ
μπροστά από την εποχή που ζούμε.
Σε μια συνέντευξη στο BBC το 2014, ο Χόκινγκ είπε: «Η ανάπτυξη της
πλήρους τεχνητής νοημοσύνης θα μπορούσε να σημάνει το τέλος της
ανθρώπινης φυλής».
Η τεχνητή νοημοσύνη ήταν στα σπάργανά της τότε, αλλά ο Χόκινγκ μπορούσε
ήδη να δει τη δύναμη που θα μπορούσε να έχει - ιδιαίτερα αν ήταν σε θέση
να ματσάρει ή να ξεπεράσει την ανθρώπινη νοημοσύνη.
«Θα απογειωνόταν από μόνο της και θα επανασχεδιαζόταν με ολοένα
αυξανόμενο ρυθμό», είχε πει στο BBC.
Ο Χόκινγκ συνέχισε: «Οι άνθρωποι, περιορίζονται από την αργή βιολογική
εξέλιξη, δεν μπορούν να ανταγωνιστούν να ανταγωνιστούν την τεχνητή
νοημοσύνη και θα αντικατασταθούν».
Ο Χόκινγκ, ο οποίος έγινε διάσημος για τη θεωρητική του εργασία γύρω από
τις μαύρες τρύπες, προφανώς κατάλαβε από νωρίς πόσο σημαντική επρόκειτο
να γίνει η τεχνητή νοημοσύνη.
Το 2015, ήταν ένας από τους 100 εμπειρογνώμονες που υπέγραψαν μια
ανοιχτή επιστολή προς τα Ηνωμένα Έθνη το 2015, προειδοποιώντας για τους
κινδύνους της ανεξέλεγκτης ανάπτυξης της τεχνητής νοημοσύνης.
Το 2017 - το έτος πριν πεθάνει - εξέδωσε μια αυστηρή προειδοποίηση,
λέγοντας στο περιοδικό Wired: «Φοβάμαι ότι η τεχνητή νοημοσύνη μπορεί να
αντικαταστήσει εντελώς τους ανθρώπους».
Στο βιβλίο του Brief Answers to the Big Questions, που δημοσιεύτηκε
λίγους μήνες μετά τον θάνατό του, ο Χόκινγκ συνέχισε στο ίδιο θέμα,
γράφοντας: «Μπορεί να αντιμετωπίσουμε μια έκρηξη νοημοσύνης που τελικά
καταλήγει σε μηχανές των οποίων η νοημοσύνη υπερβαίνει τη δική μας κατά
περισσότερο από τη δική μας αυτή των σαλιγκαριών».
Και πρόσθεσε: «Είναι δελεαστικό να απορρίψουμε την έννοια των εξαιρετικά
ευφυών μηχανών ως απλή επιστημονική φαντασία, αλλά αυτό θα ήταν ένα
λάθος - και ενδεχομένως το χειρότερο λάθος μας».
--
Για να στείλετε ένα μήνυμα και να το διαβάσουν όλοι οι συνδρομητές της λίστας μπορείτε να το στείλετε την διεύθυνση:
[email protected]
Για το αρχείο της λίστας μπορείτε να επισκεφθείτε τον σύνδεσμο:
https://www.mail-archive.com/[email protected]/maillist.html
---
Λάβατε αυτό το μήνυμα επειδή έχετε εγγραφεί στην ομάδα orasi των Ομάδων Google.
Για να απεγγραφείτε απ' αυτή την ομάδα και να σταματήσετε να λαμβάνετε μηνύματα
ηλεκτρονικού ταχυδρομείου απ' αυτή, στείλτε ένα μήνυμα ηλεκτρονικού
ταχυδρομείου στη διεύθυνση [email protected].
Για να κάνετε προβολή αυτής της συζήτησης στον ιστό, επισκεφτείτε τη διεύθυνση
https://groups.google.com/d/msgid/orasi/64a1e3a7-81de-4d89-8fcd-5ef68b70fa66%40gmail.com.