Παραίτηση «βόμβα» από τη Google του «νονού» της τεχνητής νοημοσύνης: «Τρομακτικοί οι κίνδυνοι»






Ο άνθρωπος που θεωρείται ευρέως ως ο «νονός της τεχνητής νοημοσύνης» (AI) παραιτήθηκε από τη δουλειά του στη Google, προειδοποιώντας για τους αυξανόμενους κινδύνους από τις εξελίξεις στον τομέα αυτό.
«Πρέπει να ανησυχούμε πολύ»

Ο Τζέφρι Χίντον, ηλικίας 75 ετών, ανακοίνωσε την παραίτησή του από την Google με δήλωσή του στους New York Times, λέγοντας ότι πλέον έχει μετανιώσει για το έργο του.

Είπε στο BBC ότι ορισμένοι από τους κινδύνους των chatbots της τεχνητής νοημοσύνης ήταν «αρκετά τρομακτικοί». «Αυτή τη στιγμή, δεν είναι πιο έξυπνα από εμάς, απ' όσο μπορώ να πω. Αλλά νομίζω ότι σύντομα μπορεί να γίνουν», είπε.

Ο Δρ Χίντον αποδέχτηκε επίσης ότι η ηλικία του έπαιξε ρόλο στην απόφασή του να εγκαταλείψει τον τεχνολογικό γίγαντα, λέγοντας στο BBC: «Είμαι 75 ετών, οπότε ήρθε η ώρα να αποσυρθώ».

Η πρωτοποριακή έρευνα του Δρ Χίντον για τη βαθιά μάθηση και τα νευρωνικά δίκτυα άνοιξε το δρόμο για τα σημερινά συστήματα τεχνητής νοημοσύνης όπως το ChatGPT.

Αλλά ο Βρετανοκαναδός γνωστικός ψυχολόγος και επιστήμονας υπολογιστών δήλωσε στο BBC ότι το chatbot θα μπορούσε σύντομα να ξεπεράσει το επίπεδο πληροφοριών που κατέχει ένας ανθρώπινος εγκέφαλος.

«Αυτή τη στιγμή, αυτό που βλέπουμε είναι ότι πράγματα όπως το GPT-4 επισκιάζουν έναν άνθρωπο στο ποσό των γενικών γνώσεων που έχει και τον επισκιάζει κατά πολύ. Όσον αφορά τη συλλογιστική, δεν είναι τόσο καλή, αλλά κάνει ήδη απλούς συλλογισμούς. Και δεδομένου του ρυθμού προόδου, αναμένουμε ότι τα πράγματα θα βελτιωθούν αρκετά γρήγορα. Οπότε πρέπει να ανησυχούμε γι' αυτό», συνέχισε σε δραματικό τόνο ο επιστήμονας.

Στο άρθρο των New York Times, ο Δρ Χίντον αναφέρθηκε σε «κακούς παράγοντες» που θα προσπαθήσουν να χρησιμοποιήσουν την τεχνητή νοημοσύνη για «κακά πράγματα».

Όταν του ζητήθηκε από το BBC να διευκρινίσει το θέμα αυτό, απάντησε: «Αυτό είναι απλώς ένα είδος χειρότερου σεναρίου, ένα είδος εφιαλτικού σεναρίου. Μπορείτε να φανταστείτε, για παράδειγμα, κάποιον κακό παράγοντα όπως ο [Ρώσος πρόεδρος Βλαντίμιρ] Πούτιν να αποφασίσει να δώσει στα ρομπότ τη δυνατότητα να δημιουργούν τους δικούς τους υποστόχους».

Ο επιστήμονας προειδοποίησε ότι αυτό τελικά θα μπορούσε «να δημιουργήσει υπο-στόχους όπως 'πρέπει να πάρω περισσότερη δύναμη'». Και πρόσθεσε: «Έχω καταλήξει στο συμπέρασμα ότι το είδος της νοημοσύνης που αναπτύσσουμε είναι πολύ διαφορετικό από τη νοημοσύνη που έχουμε. Είμαστε βιολογικά συστήματα και αυτά είναι ψηφιακά συστήματα. Και η μεγάλη διαφορά είναι ότι με τα ψηφιακά συστήματα, έχετε πολλά αντίγραφα του ίδιου συνόλου βαρών, του ίδιου μοντέλου του κόσμου.

Και όλα αυτά τα αντίγραφα μπορούν να μαθαίνουν ξεχωριστά, αλλά να μοιράζονται τη γνώση τους άμεσα. Έτσι είναι σαν να είχατε 10.000 ανθρώπους και κάθε φορά που ένα άτομο μάθαινε κάτι, όλοι το γνώριζαν αυτόματα. Και με αυτόν τον τρόπο αυτά τα chatbots μπορούν να γνωρίζουν πολύ περισσότερα από κάθε άτομο».

Τόνισε ότι δεν ήθελε να επικρίνει την Google και ότι ο τεχνολογικός γίγαντας ήταν «πολύ υπεύθυνος». «Στην πραγματικότητα θέλω να πω μερικά καλά πράγματα για την Google. Και είναι πιο αξιόπιστα αν δεν εργάζομαι για τη Google».

Σε δήλωσή του, ο επικεφαλής επιστήμονας της Google, Τζεφ Ντιν, δήλωσε: «Παραμένουμε προσηλωμένοι σε μια υπεύθυνη προσέγγιση της τεχνητής νοημοσύνης. Μαθαίνουμε συνεχώς για να κατανοούμε τους αναδυόμενους κινδύνους, ενώ παράλληλα καινοτομούμε με τόλμη».

ethnos.gr

Μοιραστείτε το άρθρο, με αυτόν τον τρόπο μας επιβραβεύετε.

Ακολουθήστε το newsplanet09.info στο Google News και στο instagram για να ενημερώνεστε για όλα τα τελευταία άρθρα μας.

Fair Notice -Mε επιφύλαξη παντός νόμιμου δικαιώματος:Το newsplanet09 όπως και η σελίδα μας newsplanet09 στο facebook απαγορεύει ρητώς από 9/6/20 οποιαδήποτε επισήμανση ή χαρακτηρισμό των άρθρων του από μη αναγνωρισμένες από το Ελληνικό κράτος, αλλά και τους διεθνείς νόμους προστασίας ατομικών και ανθρωπίνων δικαιωμάτων και ελευθερίας άποψης και ιδεών από διαδικτυακές οργανώσεις, οι οποίες δεν συνάδουν με το Σύνταγμα & τους νόμους της χώρας μας, και τις οποίες δεν αναγνωρίζουμε.


Δεν υπάρχουν σχόλια

Εικόνες θέματος από enot-poloskun. Από το Blogger.