Η επικεφαλής ρομποτικής της OpenAI Caitlin Kalinowski παραιτήθηκε το Σάββατο λόγω ανησυχιών σχετικά με τη συμφωνία της εταιρείας με το αμερικανικό Υπουργείο Άμυνας. Η Kalinowski επικρίνησε τη διαδικασία λήψης απόφασης και ανέφερε θέματα εθνικής ασφάλειας που δεν εξετάστηκαν επαρκώς πριν την ανακοίνωση της συμφωνίας.
Τι ακριβώς είπε η Kalinowski
Μέσω ανάρτησης στο X, η Kalinowski εξέφρασε τις ανησυχίες της για δύο κύρια ζητήματα. Πρώτον, την παρακολούθηση Αμερικανών πολιτών χωρίς δικαστικό έλεγχο. Δεύτερον, την ανάπτυξη αυτόνομων όπλων χωρίς ανθρώπινη έγκριση.
Η Kalinowski τόνισε ότι αναγνωρίζει τον σημαντικό ρόλο της τεχνητής νοημοσύνης στην εθνική ασφάλεια. Ωστόσο, υποστήριξε ότι τέτοιες κρίσιμες αποφάσεις δεν θα πρέπει να λαμβάνονται βιαστικά.
Σε μεταγενέστερη ανάρτηση, περιέγραψε το πρόβλημα ως «θέμα διακυβέρνησης». Ανέφερε ότι η OpenAI ανακοίνωσε τη συμφωνία με το Πεντάγωνο χωρίς να έχουν καθοριστεί τα όρια ασφαλείας.
Η Kalinowski ενταχθεί στην OpenAI το 2024, αφού εργαζόταν στη Meta Platforms ως ηγέτης της ανάπτυξης υλικού επαυξημένης πραγματικότητας.
Η απάντηση της OpenAI
Η εταιρεία απάντησε τονίζοντας ότι η συμφωνία περιλαμβάνει πρόσθετα μέτρα ασφαλείας. Ορίστηκαν συγκεκριμένες «κόκκινες γραμμές» που αποκλείουν τη χρήση της τεχνολογίας σε εγχώρια παρακολούθηση ή σε αυτόνομα όπλα.
Η OpenAI δήλωσε ότι αναγνωρίζει τις ισχυρές απόψεις του κοινού και δεσμεύθηκε να συνεχίσει τις συζητήσεις με υπαλλήλους, κυβερνητικούς φορείς, οργανώσεις κοινωνίας των πολιτών και κοινότητες παγκοσμίως.
Το CEO της OpenAI Σαμ Άλτμαν δεν έχει ακόμη σχολιάσει δημοσίως την παραίτηση. Η Kalinowski έχει εκφράσει «βαθύ σεβασμό» για τον Άλτμαν και την ομάδα του, παρά την απόφασή της να φύγει.
Ο διάλογος για ΑΙ και στρατιωτική χρήση
Η παραίτηση αυτή ανάφλεξε ευρύτερη συζήτηση γύρω από τη χρήση τεχνητής νοημοσύνης στους στρατιωτικούς τομείς. Πολλοί υποστηρίζουν ότι τέτοιες συνεργασίες απαιτούν διαφανή δημοσιακή συζήτηση και ευρεία συναίνεση.
Η υπόθεση αποτελεί ένδειξη του αυξανόμενου πολιτικού διαχωρισμού μεταξύ τεχνολογικών εταιρειών και των υπαλλήλων τους σχετικά με ηθικά ζητήματα στη τεχνητή νοημοσύνη.

