Τεχνητή Νοημοσύνη: Το OpenAI αποκάλυψε το AI GPT-4o - Τι είναι και γιατί ξεσηκώνει αντιδράσεις

Δωρεάν για όλους από τον κατασκευαστή του ChatGPT. Τα μικρά "θαύματα" που πετυχαίνει το νέο μοντέλο, ανταλλάσσοντας σκέψεις με ήχο, εικόνα και κείμενο σε πραγματικό χρόνο.
Open Image Modal
Σε αυτή τη φωτογραφία, ένας υπάλληλος γραφείου ελέγχει την εισαγωγή στο νέο μοντέλο τεχνητής νοημοσύνης του OpenAI, GPT-4o, στο κινητό τηλέφωνο και τον υπολογιστή του, στη Σαγκάη, Κίνα, 14 Μαΐου 2024. (Photo illustration by CFOTO/Future Publishing via Getty Images)
Future Publishing via Getty Images

 

Η OpenAI, οι κατασκευαστές του ChatGPT,  με ένα νέο μοντέλο AI που ονομάζεται GPT-4o.

Οι υποστηρικτές του λένε ότι το πιο πρόσφατο μοντέλο γλώσσας τεχνητής νοημοσύνης θα κάνει το ChatGPT πιο έξυπνο και πιο εύκολο στη χρήση.

“Μπορεί να ανταποκριθεί σε δεδομένα ήχου σε μόλις 232 χιλιοστά του δευτερολέπτου, με μέσο όρο 320 χιλιοστά του δευτερολέπτου, που είναι παρόμοιος με τον χρόνο απόκρισης του ανθρώπου σε μια συνομιλία.”

- OpenAI για το νέο μοντέλο GPT-4o

 

«Το GPT-4o (“o” για “omni” - που σημαίνει ”για όλους”) είναι ένα βήμα προς μια πολύ πιο φυσική αλληλεπίδραση ανθρώπου-υπολογιστή. Δέχεται ως ”τροφή” οποιονδήποτε συνδυασμό κειμένου, ήχου και εικόνας και δημιουργεί οποιονδήποτε συνδυασμό κειμένου, ήχου και εικόνας. Μπορεί να ανταποκριθεί σε δεδομένα ήχου σε μόλις 232 χιλιοστά του δευτερολέπτου, με μέσο όρο 320 χιλιοστά του δευτερολέπτου, που είναι παρόμοιος με τον χρόνο απόκρισης του ανθρώπου σε μια συνομιλία. Συνδυάζεται με την λειτουργία GPT-4 Turbo σε κείμενο στα αγγλικά και σε κώδικα, με σημαντική βελτίωση στο κείμενο σε μη αγγλικές γλώσσες, ενώ είναι επίσης πολύ πιο γρήγορο και 50% φθηνότερο στο API. Το GPT-4o είναι ιδιαίτερα καλύτερο στην κατανόηση της όρασης και του ήχου σε σύγκριση με τα υπάρχοντα μοντέλα», αναφέρει στην ιστοσελίδα της η OpenAI.

Open Image Modal
Κοντινό πλάνο στο χέρι ενός χρήστη που κρατά ένα iPhone και χρησιμοποιεί το μοντέλο ChatGPT GPT-4o που κυκλοφόρησε τον Μάιο του 2024 από την OpenAI. Ενα μοντέλο παραγωγής τεχνητής νοημοσύνης που επεξεργάζεται εγγενώς την ομιλία και την όραση, Lafayette, Καλιφόρνια, 13 Μαΐου 2024. (Photo by Smith Collection/Gado/Getty Images)
Smith Collection/Gado via Getty Images

“Πρέπει να πατήσουμε το κουμπί παύσης. Είναι πολύ νωρίς για να χειριστούμε την υπερανθρώπινη νοημοσύνη γιατί χρειαζόμαστε περισσότερη έρευνα για το πώς να την κάνουμε ασφαλή”

- Λάιρον Σαπίρα, διαδηλωτής κατά του νέου μοντέλου ΑΙ

 

Διαδηλωτές(!) κόντρα στο νέο μοντέλο ΑΙ έξω από τα γραφεία της OpenAI: Ζητούν ”παύση” στην Τεχνητή Νοημοσύνη

Ωστόσο, δεν συμφωνούν όλοι με τις αλλαγές.

Στην συνοικία με το όνομα Mission, όπου βρίσκονται τα κεντρικά γραφεία της OpenAI, δεκάδες διαδηλωτές συγκεντρώθηκανν και απαιτούν «Παύση στην Τεχνητή Νοημοσύνη».

«Δεν είμαστε κατά της τεχνολογίας. Μας αρέσει που το GPT μπορεί να είναι χρήσιμο», δήλωσε ο Λάιρον Σαπίρα, από την πλευρά των διαμαρτυρόμενων διαδηλωτών. «Πρέπει να πατήσουμε το κουμπί παύσης. Είναι πολύ νωρίς για να χειριστούμε την υπερανθρώπινη νοημοσύνη γιατί χρειαζόμαστε περισσότερη έρευνα για το πώς να την κάνουμε ασφαλή.»

OpenAI, Google, Meta - όλοι εργάζονται για να δημιουργήσουν ολοένα και πιο ισχυρά μοντέλα (τα λεγόμενα “large language models”) που τροφοδοτούν τα chatbots.

Αυτή τη Δευτέρα 13 Μαϊου 2024, το OpenAI αποκάλυψε το GPT-4o και το προσφέρει δωρεάν σε όλους τους χρήστες.

Το GPT-4o παρέχει νοημοσύνη επιπέδου GPT-4, αλλά είναι πολύ πιο γρήγορο», δηλώνει ο CTO του OpenAI, Mίρα Μουράτι.

Η αναβαθμισμένη εμπειρία θα επιτρέψει στους χρήστες να αλληλεπιδρούν με την Τεχνητή Νοημοσύνη, με επιτραπέζιους υπολογιστές (desktops) και μέσω βελτιωμένων φωνητικών συνομιλιών.

«Οι νέες δυνατότητες ήχου επιτρέπουν στους χρήστες να μιλούν στο ChatGPT και να λαμβάνουν απαντήσεις σε πραγματικό χρόνο χωρίς καθυστέρηση, καθώς και να διακόπτουν το ChatGPT ενώ μιλάει. Είναι δύο χαρακτηριστικά ρεαλιστικών συνομιλιών όπου οι φωνητικοί βοηθοί AI (voice assistants) αντιμετώπισαν δυσκολίες», σημείωσε το πρακτορείο Reuters.

Το GPT-4o θα χρησιμοποιεί κείμενο και εικόνα. Μπορεί να δει screenshots, φωτογραφίες, έγγραφα ή γραφήματα που έχουν ανεβάσει οι χρήστες και να «συζητήσει» σχετικά μαζί τους.

“Κάνουμε ένα ακόμη βήμα προς αυτό που ονομάζουμε "τέλειο AI". Είναι βασικά το AI που θα έχει και τις πέντε αισθήσεις του ανθρώπου. Μπορούμε να το δούμε να προχωρά πολύ γρήγορα, περισσότερο γρήγορα από αυτό που περιμένουμε”

- καθηγητής Τεχνολογίας, Άχμεντ Μπανάφα
Open Image Modal
Ο Δρ Rohaid Ali παίζει ένα βίντεο που έφτιαξε η ασθενής Alexis Bogan την Πέμπτη, 11 Μαρτίου 2024, στο νοσοκομείο Rhode Island στο Providence. Oι γιατροί της Bogan, της οποίας η ομιλία ήταν μειωμένη από όγκο στον εγκέφαλο, χρησιμοποίησαν το καταγεγραμμένο δείγμα της ομιλίας της και ένα εργαλείο κλωνοποίησης φωνής από το OpenAI για να αναδημιουργήσουν την προηγούμενη φωνή της. Ο νευροχειρουργός Δρ Κωνσταντίνος Σμπώκος, δεξιά, κοιτάζει με χαρά το πρόσωπο της ασθενούς. (AP Photo/Josh Reynolds)
via Associated Press

 

Μαθηματικά, παραμύθια και...ανίχνευση συναισθημάτων

Τα στελέχη του OpenAI παρουσίασαν μια προφορική συνομιλία με το ChatGPT, ζητώντας να λάβουν οδηγίες σε πραγματικό χρόνο για την επίλυση ενός μαθηματικού προβλήματος, να λάβουν συμβουλές για κωδικοποίηση (προγραμματισμό υπολογιστή) και να τους πει η Τεχνητή Νοημοσύνη ένα...παραμύθι πριν από τον ύπνο.

Οι ίδιοι, μεταδίδει από το Σαν Φρανσίσκο το αμερικανικό δίκτυο abc7, έκαναν και μία εντυπωσιακή επίδειξη, με το μοντέλο ΑΙ να ανιχνεύει τα συναισθήματα των χρηστών!

Η OpenAI λέει ότι το GPT-4o θα είναι δωρεάν για όλους τους χρήστες του ChatGPT. Οι χρήστες επί πληρωμή θα κερδίσουν επιπλέον, έως και πέντε φορές τα όρια χωρητικότητας των δωρεάν χρηστών.

«Κάνουμε ένα ακόμη βήμα προς αυτό που ονομάζουμε ”τέλειο AI”. Είναι βασικά το AI που θα έχει και τις πέντε αισθήσεις του ανθρώπου. Μπορούμε να το δούμε να προχωρά πολύ γρήγορα, περισσότερο γρήγορα από αυτό που περιμένουμε», λέει ο καθηγητής Τεχνολογίας, Άχμεντ Μπανάφα.

Η ανακοίνωση της OpenAI έρχεται μια μέρα πριν από το μεγάλο συνέδριο προγραμματιστών της Google. Ο τεχνολογικός γίγαντας αναμένεται να ανακοινώσει τις δικές του αναβαθμίσεις στο μοντέλο Gemini AI.