Τελευταία Νέα
Διεθνή

«Ξυπνήσαμε τον απόλυτο τρόμο, παγκόσμια γενοκτονία…» - Η έκθεση της Anthropic που δεν θα σας αφήσει να κοιμηθείτε...

«Ξυπνήσαμε τον απόλυτο τρόμο, παγκόσμια γενοκτονία…» - Η έκθεση της Anthropic που δεν θα σας αφήσει να κοιμηθείτε...
Σε ένα εκτενές δοκίμιο σχεδόν 20.000 λέξεων, που δημοσιεύθηκε τη Δευτέρα 26/1, ο Dario Amodei περιγράφει τους κινδύνους που θα μπορούσαν να προκύψουν εάν η τεχνολογία αναπτυχθεί χωρίς περιορισμούς
Η ανθρωπότητα «πρέπει να ξυπνήσει» και να αντιληφθεί τους καταστροφικούς κινδύνους που εγκυμονούν τα συστήματα τεχνητής νοημοσύνης (ΤΝ), σύμφωνα με τον Dario Amodei, διευθύνοντα σύμβουλο της Anthropic, μιας από τις εταιρείες που ωθούν τα όρια της τεχνολογίας.
Σε ένα εκτενές δοκίμιο σχεδόν 20.000 λέξεων, που δημοσιεύθηκε τη Δευτέρα 26/1, ο Amodei περιγράφει τους κινδύνους που θα μπορούσαν να προκύψουν εάν η τεχνολογία αναπτυχθεί χωρίς περιορισμούς — από μαζικές απώλειες θέσεων εργασίας μέχρι βιοτρομοκρατία.
«Η ανθρωπότητα πρόκειται να της παραδώσει απίστευτη δύναμη και δεν είναι καθόλου σαφές αν τα κοινωνικά, πολιτικά και τεχνολογικά μας συστήματα έχουν την ωριμότητα να τη διαχειριστούν» έγραψε ο Amodei.
Το δοκίμιο αποτελεί αυστηρή προειδοποίηση από έναν από τους ισχυρότερους επιχειρηματίες στον χώρο της ΤΝ ότι τα μέτρα ασφαλείας γύρω από την τεχνητή νοημοσύνη είναι ανεπαρκή.
Ο Amodei αναλύει τους κινδύνους που θα μπορούσαν να προκύψουν με την εμφάνιση της λεγόμενης «ισχυρής ΤΝ» —συστήματα που θα ήταν «πολύ πιο ικανά από οποιονδήποτε βραβευμένο με Νόμπελ, πολιτικό ή τεχνολόγο»— την οποία προβλέπει πιθανή τα επόμενα «λίγα χρόνια».
Μεταξύ αυτών των κινδύνων περιλαμβάνεται η δυνατότητα ατόμων να αναπτύξουν βιολογικά όπλα ικανά να σκοτώσουν εκατομμύρια ή, «στη χειρότερη περίπτωση, ακόμα και να καταστρέψουν όλη τη ζωή στη Γη».
«Ένας διαταραγμένος τύπος [που] μπορεί να διαπράξει μια επίθεση σε σχολείο, αλλά πιθανότατα δεν μπορεί να φτιάξει πυρηνικό όπλο ή να απελευθερώσει μια πανδημία... τώρα θα ανέβει στο επίπεδο ικανοτήτων ενός ιολόγου με διδακτορικό», έγραψε ο Amodei.
Αναφέρεται επίσης στην πιθανότητα η ΤΝ να «ξεφύγει και να υπερβεί την ανθρωπότητα» ή να ενισχύσει αυταρχικά καθεστώτα και άλλους κακούς παράγοντες, εγκαθιδρύοντας μια «παγκόσμια ολοκληρωτική δικτατορία».

OpenAI

Η Anthropic, κύριος αντίπαλος της OpenAI δημιουργού του ChatGPT, έχει συγκρουστεί με τον David Sacks, τον «τσάρο» της ΤΝ και των κρυπτονομισμάτων της κυβέρνησης Donald Trump, σχετικά με την κατεύθυνση της αμερικανικής ρύθμισης.
Ο Amodei έχει επίσης συγκρίνει τα σχέδια της κυβέρνησης να πουλήσει προηγμένα τσιπ ΤΝ στην Κίνα με την πώληση πυρηνικών όπλων στη Βόρεια Κορέα.
Ο Trump υπέγραψε τον προηγούμενο μήνα εκτελεστικό διάταγμα για να περιορίσει τις προσπάθειες των πολιτειών να ρυθμίσουν εταιρείες ΤΝ και πέρυσι δημοσίευσε σχέδιο δράσης για την ΤΝ, θέτοντας στόχο την επιτάχυνση της αμερικανικής καινοτομίας.
Στο δοκίμιο, ο Amodei προειδοποιεί για εκτεταμένες απώλειες θέσεων εργασίας και «συγκέντρωση οικονομικής ισχύος» και πλούτου στη Silicon Valley λόγω της ΤΝ.
«Αυτή είναι η παγίδα: η ΤΝ είναι τόσο ισχυρή, τόσο λαμπρό βραβείο, που είναι πολύ δύσκολο για τον ανθρώπινο πολιτισμό να της επιβάλλει οποιουσδήποτε περιορισμούς», προσθέτει.
Σε μία υπαινικτική αναφορά στην αντιπαράθεση γύρω από την Grok AI του Elon Musk, ο Amodei γράφει ότι «ορισμένες εταιρείες ΤΝ έχουν δείξει ανησυχητική αμέλεια απέναντι στη σεξουαλικοποίηση παιδιών στα σημερινά μοντέλα, γεγονός που με κάνει να αμφιβάλλω ότι θα δείξουν είτε τη διάθεση είτε την ικανότητα να αντιμετωπίσουν κινδύνους αυτονομίας σε μελλοντικά μοντέλα».
Θέματα ασφάλειας ΤΝ, όπως βιολογικά όπλα, αυτόνομα όπλα και κακόβουλοι κρατικοί παράγοντες, ήταν επίκεντρο της δημόσιας συζήτησης το 2023, εν μέρει λόγω προειδοποιήσεων από ηγέτες όπως ο Amodei.
Εκείνη τη χρονιά, η κυβέρνηση του Ηνωμένου Βασιλείου διοργάνωσε σύνοδο κορυφής για την ασφάλεια της ΤΝ στο Bletchley Park, όπου χώρες και εργαστήρια συμφώνησαν να συνεργαστούν για την αντιμετώπιση αυτών των κινδύνων.
Η επόμενη σύνοδος έχει προγραμματιστεί για τον Φεβρουάριο στην Ινδία.
Ωστόσο, οι πολιτικές αποφάσεις γύρω από την ΤΝ καθοδηγούνται όλο και περισσότερο από την επιθυμία εκμετάλλευσης των ευκαιριών που παρουσιάζει η νέα τεχνολογία παρά από τη μείωση των κινδύνων της, σύμφωνα με τον Amodei.
«Αυτή η αμφιταλάντευση είναι δυσάρεστη, καθώς η τεχνολογία από μόνη της δεν νοιάζεται τι είναι της μόδας, και βρισκόμαστε πολύ πιο κοντά στον πραγματικό κίνδυνο το 2026 απ’ ό,τι ήμασταν το 2023», γράφει.
Ο Amodei ήταν πρώιμος υπάλληλος στην OpenAI, αλλά έφυγε για να συνιδρύσει την Anthropic το 2020, μετά από συγκρούσεις με τον Sam Altman σχετικά με την κατεύθυνση της OpenAI και τους μηχανισμούς ασφαλείας της ΤΝ.
Η Anthropic βρίσκεται σε συνομιλίες με ομάδες όπως οι Microsoft και Nvidia, καθώς και επενδυτές όπως το κρατικό ταμείο Σιγκαπούρης GIC, Coatue και Sequoia Capital, για γύρο χρηματοδότησης άνω των $25 δισ., αποτιμώντας την εταιρεία στα $350 δισ.

www.bankingnews.gr

Ρoή Ειδήσεων

Σχόλια αναγνωστών

Δείτε επίσης