Καλώς ήρθατε στην διαδικτυακή μας κοινότητα.
Εδώ μπορείτε να συζητήσετε και να ενημερωθείτε για θέματα που αφορούν την Πρωτοβάθμια Φροντίδα Υγείας.
Για να συμμετέχετε και να μπορείτε να κατεβάσετε αρχεία και εικόνες που βρίσκονται στα μηνύματα πρέπει να εγγραφείτε.
Η εγγραφή είναι δωρεάν και θα σας αποσταλεί άμεσα ένα e-mail για την ενεργοποίηση της εγγραφής σας.
Εάν δεν το λάβετε σε λίγα λεπτά ελέγξετε το φάκελο ομαδικής αλληλογραφίας ή το φάκελο SPAM ή το φάκελο ανεπιθύμητης αλληλογραφίας καθώς μπορεί να βρεθεί εκεί από λάθος του λογισμικού ηλεκτρονικού ταχυδρομείου.
Εάν έχετε ξεχάσει τον κωδικό σας, μπορείτε να ζητήσετε να σας ξανασταλεί από εδώ.
22 Φεβρουαρίου 2025, 09:40:55

Αποστολέας Θέμα: The pros and cons of using ChatGPT for your health care needs  (Αναγνώστηκε 21971 φορές)

0 μέλη και 1 επισκέπτης διαβάζουν αυτό το θέμα.

31 Μαρτίου 2023, 08:03:17
Αναγνώστηκε 21971 φορές
Αποσυνδεδεμένος

Argirios Argiriou

Moderator
25/03/2023

Δεν είναι ορατοί οι σύνδεσμοι (links). Εγγραφή ή Είσοδος
Before ordering a test decide what you will do if it is (1) positive, or (2) negative. If both answers are the same, don't do the test. Archie Cochrane.

31 Μαρτίου 2023, 23:46:19
Απάντηση #1
Αποσυνδεδεμένος

Argirios Argiriou

Moderator
Τώρα πλέον θα γίνονται ακόμη πιο εύκολες με το ChatGPT...

31/03/2023

«Πληρωμένες» πτυχιακές εργασίες: ‘Εγγραφο Θεοδωρικάκου στη Βουλή- Τι καταγγέλλει η ΟΙΕΛΕ

Δεν είναι ορατοί οι σύνδεσμοι (links). Εγγραφή ή Είσοδος
Before ordering a test decide what you will do if it is (1) positive, or (2) negative. If both answers are the same, don't do the test. Archie Cochrane.

8 Απριλίου 2023, 21:42:37
Απάντηση #2
Αποσυνδεδεμένος

Argirios Argiriou

Moderator
08/04/2023

Το ChatGTP σε ρόλο… γιατρού – Διέγνωσε σπάνια πάθηση σε δευτερόλεπτα και πέρασε με άριστα τις εξετάσεις

Δεν είναι ορατοί οι σύνδεσμοι (links). Εγγραφή ή Είσοδος
Before ordering a test decide what you will do if it is (1) positive, or (2) negative. If both answers are the same, don't do the test. Archie Cochrane.

9 Απριλίου 2023, 03:51:12
Απάντηση #3
Αποσυνδεδεμένος

Δημήτριος



Θα σταθώ σε αυτήν την παράγραφο:

Όποτε, γίνεται κατανοητό ότι ένας λάθος αριθμός ή ένα λάθος υπολογισμένο βάρος θα μπορούσε να οδηγήσει σε σοβαρά λάθη στη συνταγογράφηση ή στη διάγνωση.

Δεδομένου ότι και στα ελληνικά δεν τα καταφέρνει -ακομα-άψογα,ούτε στην κατανόηση ,ούτε στην παραγωγή κειμένου,
έχω συμπεράνει από την εντατική χρήση του ότι ούτε άσκηση Λυκείου φυσικής και χημείας μπορεί να σου λύσει με απόλυτη αξιοπιστία.


11 Απριλίου 2023, 19:27:25
Απάντηση #4
Αποσυνδεδεμένος

Argirios Argiriou

Moderator
Before ordering a test decide what you will do if it is (1) positive, or (2) negative. If both answers are the same, don't do the test. Archie Cochrane.

14 Απριλίου 2023, 08:00:58
Απάντηση #5
Αποσυνδεδεμένος

Argirios Argiriou

Moderator
13-04-2023 ertnews

Η τεχνητή νοημοσύνη καταναλώνει τεράστιες ποσότητες νερού, αποκαλύπτει νέα μελέτη

Δεν είναι ορατοί οι σύνδεσμοι (links). Εγγραφή ή Είσοδος
Before ordering a test decide what you will do if it is (1) positive, or (2) negative. If both answers are the same, don't do the test. Archie Cochrane.

2 Μαΐου 2023, 18:58:57
Απάντηση #6
Αποσυνδεδεμένος

Argirios Argiriou

Moderator
Before ordering a test decide what you will do if it is (1) positive, or (2) negative. If both answers are the same, don't do the test. Archie Cochrane.

8 Μαΐου 2023, 11:25:46
Απάντηση #7
Αποσυνδεδεμένος

Argirios Argiriou

Moderator
07-05-2023 ertnews

Δεν είναι ορατοί οι σύνδεσμοι (links). Εγγραφή ή Είσοδος
Before ordering a test decide what you will do if it is (1) positive, or (2) negative. If both answers are the same, don't do the test. Archie Cochrane.

8 Μαΐου 2023, 17:41:41
Απάντηση #8
Αποσυνδεδεμένος

Argirios Argiriou

Moderator
08-05-2023 ertnews

BacterAI: Το σύστημα τεχνητής νοημοσύνης που εκτελεί καθημερινά 10.000 επιστημονικά πειράματα

Δεν είναι ορατοί οι σύνδεσμοι (links). Εγγραφή ή Είσοδος
Before ordering a test decide what you will do if it is (1) positive, or (2) negative. If both answers are the same, don't do the test. Archie Cochrane.

10 Μαΐου 2023, 17:42:10
Απάντηση #9
Αποσυνδεδεμένος

Argirios Argiriou

Moderator
Καθημερινή, 10/03/2023
του Μανώλη Ανδριωτάκη.


Με την έλευση των νέων εργαλείων τεχνητής νοημοσύνης (ΤΝ), όπως το ChatGPΤ, βιώνουμε έναν κολοσσιαίο τεχνολογικό μετασχηματισμό στο επίπεδο της πληροφόρησης, ο οποίος αλλάζει ριζικά τους όρους της πρόσβασής μας στη γνώση

Με την έλευση των νέων εργαλείων τεχνητής νοημοσύνης (ΤΝ), όπως το ChatGPΤ, βιώνουμε έναν κολοσσιαίο τεχνολογικό μετασχηματισμό στο επίπεδο της πληροφόρησης, ο οποίος αλλάζει ριζικά τους όρους της πρόσβασής μας στη γνώση. Εως χθες, μία από τις κύριες πηγές γνώσης των χρηστών του Διαδικτύου ήταν οι μηχανές αναζήτησης. Σε αυτές ανατρέχαμε όλοι προκειμένου να εντοπίζουμε πηγές που μας ήταν απαραίτητες για να καταλάβουμε τον κόσμο. Τώρα με το ChatGPT αυτό τείνει να αλλάξει δραματικά, καθώς το εργαλείο αυτό μπορεί να υποκαταστήσει ολοκληρωτικά τη μηχανή αναζήτησης.

Εως χθες λοιπόν, επισκεπτόμενοι τη μηχανή αναζήτησης της Google κατά βάση, λαμβάναμε έναν κατάλογο με υπερσυνδέσμους οι οποίοι ιεραρχούνταν βάσει της δημοφιλίας τους, και επιλέγαμε εμείς σε ποιους θα προχωρούσαμε. Εκτός του κριτηρίου της δημοφιλίας, η μηχανή αναζήτησης είχε, και εξακολουθεί να έχει, δύο ακόμη πια αυθαίρετα στοιχεία, που αλλοιώνουν την ενημέρωσή μας, εν γνώσει μας. Πρώτον, η Google στην αρχή εμφανίζει υπερσυνδέσμους που είναι προϊόν εμπορικής συναλλαγής. Κοινώς, τα πρώτα αποτελέσματα κάθε αναζήτησης είναι διαφημίσεις. Δεύτερον, υπάρχει μια σαφής μεροληψία υπέρ της πρώτης σελίδας των αποτελεσμάτων. Εχει μετρηθεί ότι ελάχιστοι είναι εκείνοι που πηγαίνουν στη δεύτερη ή στην τρίτη σελίδα των αποτελεσμάτων – η συντριπτική πλειονότητα σταματά στα πρώτα αποτελέσματα της αναζήτησης. Αυτά τα τρία δεδομένα (δημοφιλία, διαφημίσεις, πρώτη σελίδα), εμποδίζουν τη μηχανή αναζήτησης απ’ το να γίνει το πλέον βαθύ και αμερόληπτο αποθετήριο ανθρώπινης γνώσης, και κατ’ επέκταση μια εντελώς αξιόπιστη πηγή πληροφοριών.

Το νέο εργαλείο απόκτησης γνώσης που μας συστήθηκε πριν από μερικούς μήνες λειτουργεί με ΤΝ, ονομάζεται ChatGPT και είναι εντυπωσιακά καλό. Μόλις πριν από μερικές μέρες παρουσιάστηκε η 4η έκδοσή του, και αξιοποιεί μια τεχνολογία μηχανικής μάθησης, η οποία μιμείται τις συνάψεις του ανθρώπινου εγκεφάλου. Το νευρωνικό αυτό δίκτυο τροφοδοτείται από άφθονα δεδομένα, είναι ικανό να εντοπίζει μοτίβα και να προβλέπει την επόμενη κατάλληλη λέξη σ ένα κείμενο ή το επόμενο κατάλληλο πίξελ σε μια εικόνα. Η πρόοδος σε αυτή τη μορφή της ΤΝ, η οποία ονομάζεται «παραγωγική», οφείλεται σε ένα νέο είδος αλγορίθμων-«μετασχηματιστών». Σκοπός αυτής της αλγοριθμικής διαδικασίας είναι να παράγονται πρωτότυπα κείμενα ή εικόνες, βάσει απλών εντολών φυσικής γλώσσας. Η συνάφεια με τη λειτουργία των μηχανών αναζήτησης είναι οφθαλμοφανής. Αμφότερα τα εργαλεία ζητούν από εμάς μια απλή ερώτηση, για να μας δώσουν έπειτα εκείνα με τη σειρά τους μια καλή απάντηση. Η κειμενογεννήτρια του ChatGPT δεν δίνει απαντήσεις με τη μορφή υπερσυνδέσμων. Συντάσσει κανονικά κείμενα, που έχουν αρχή, μέση, τέλος, βγάζοντας απ’ τη μέση τον «θόρυβο» των πολλών, ή ακόμη και αντικρουόμενων πηγών. Το ChatGPT εντάσσει τα πάντα σ’ ένα ενιαίο κείμενο, απαλλάσσοντας τον χρήστη απ’ το κοπιώδες και δημιουργικό έργο της σύνθεσης. Στην ουσία, του προσφέρει στο πιάτο μια ad hoc σύνθεση. Το πρώτο σοβαρότατο πρόβλημα είναι ότι στο ChatGPT δεν βλέπουμε ποιες είναι οι πηγές του κειμένου. Στην Google γνωρίζαμε ότι πατώντας σ’ ένα λινκ διαβάζαμε το μπλογκ ενός ατόμου ή τη σελίδα των New York Times. Εδώ, αυτή η πολύ σημαντική πληροφορία φεύγει απ’ την εικόνα. Οχι μόνο δεν είναι σε θέση ο χρήστης να γνωρίζει την πηγή, αλλά δεν μπορεί να διακρίνει εάν το αποτέλεσμα είναι διαφημιστικό ή όχι. Η παραγωγή των συνθετικών κειμένων του ChatGPT είναι ο ορισμός του «μαύρου κουτιού».

Αυτός ο σκόπελος έχει παρακαμφθεί απ’ το εργαλείο παραγωγικής ΤΝ, Perplexity, το οποίο εμφανίζει ύστερα από κάθε πρόταση της σύνθεσής του και την πηγή, κάτι πραγματικά πολύ χρήσιμο. Το ίδιο συμβαίνει και στην, δοκιμαστική ακόμη, έκδοση της μηχανής αναζήτησης Bing, της Microsoft: κι εκεί οι υπερσύνδεσμοι είναι ορατοί. Βεβαίως, ούτε εδώ λύνεται το πρόβλημα, γιατί η δημοσίευση των πηγών δεν συνεπάγεται αυτόματα και την ανάγνωσή τους. Προβλέπω ότι θα είναι ακόμη λιγότεροι όσοι θα κάνουν κλικ πάνω στις πηγές.
Το ChatGPT κάνει ένα βήμα πίσω αναφορικά με την ορατότητα και το εύρος των πληροφοριών στο Διαδίκτυο. Με την αδιαφάνειά του, αλλά και με την αμφίβολη αποδοτικότητά του, θα απομακρύνει ακόμη περισσότερο τους χρήστες από την ποικιλία των πηγών και την έρευνα, θα αυξήσει δραματικά το ποσό της παραπληροφόρησης και θα θολώσει ακόμα περισσότερο το τοπίο της ενημέρωσης. Πιθανώς κάποιες τεχνικές λύσεις να βοηθήσουν, αλλά πρέπει ταυτόχρονα να εκπαιδευτούν οι χρήστες. Το γεγονός ότι οι μηχανές αναζήτησης πειραματίζονται με αυτό το εργαλείο θέλοντας να το εντάξουν οργανικά στο βασικό τους προϊόν δεν μπορεί παρά να προκαλεί ανησυχία. Πριν γίνει το επόμενο βήμα, θα πρέπει να υπάρξει χρόνος για διαβούλευση και για καίριες αποφάσεις. Εχουμε το κακό παράδειγμα των social media, το οποίο σταδιακά εξελίχθηκε σε εφιάλτη των σύγχρονων δημοκρατιών. Για να μη δοκιμαστούν και πάλι τα όρια των κοινωνικών αντοχών, θα πρέπει να αναληφθεί έγκαιρη δράση από ένα πολιτικό σύστημα, το οποίο δυστυχώς ιεραρχεί συνήθως τέτοιου είδους ζητήματα χαμηλά.

Δεν είναι ορατοί οι σύνδεσμοι (links). Εγγραφή ή Είσοδος
« Τελευταία τροποποίηση: 10 Μαΐου 2023, 17:46:30 από Argirios Argiriou »
Before ordering a test decide what you will do if it is (1) positive, or (2) negative. If both answers are the same, don't do the test. Archie Cochrane.

17 Μαΐου 2023, 21:57:20
Απάντηση #10
Αποσυνδεδεμένος

Argirios Argiriou

Moderator
Before ordering a test decide what you will do if it is (1) positive, or (2) negative. If both answers are the same, don't do the test. Archie Cochrane.

1 Αυγούστου 2023, 20:01:51
Απάντηση #11
Αποσυνδεδεμένος

Argirios Argiriou

Moderator
30/07/2023

Δεν είναι ορατοί οι σύνδεσμοι (links). Εγγραφή ή Είσοδος
Before ordering a test decide what you will do if it is (1) positive, or (2) negative. If both answers are the same, don't do the test. Archie Cochrane.

9 Φεβρουαρίου 2025, 07:28:21
Απάντηση #12
Αποσυνδεδεμένος

Argirios Argiriou

Moderator
Καθημερινή, 02/02/2025
του Γιάννη Παπαδόπουλου


Αίτημα προς την Αρχή Προστασίας Δεδομένων για «φρένο» στην κινεζική εφαρμογή τεχνητής νοημοσύνης, όπως έχει ήδη κάνει η Ιταλία – Τι φοβούνται οι οργανώσεις

Πρώτοι κινητοποιήθηκαν οι Ιταλοί, δίνοντας στην κινεζική πλευρά διορία 20 ημερών για διευκρινίσεις. Η Αρχή Προστασίας Δεδομένων της ευρωπαϊκής χώρας θεωρεί ότι τα στοιχεία εκατομμυρίων πολιτών της διατρέχουν πιθανό κίνδυνο, καθώς δεν είναι ξεκάθαρος ο τρόπος συλλογής, αποθήκευσης και επεξεργασίας τους από το μοντέλο τεχνητής νοημοσύνης της DeepSeek. Πλέον, παρόμοιες ανησυχίες εκφράζονται και στην Ελλάδα. Η Homo Digitalis, οργάνωση που ασχολείται με τα δικαιώματα χρηστών του Διαδικτύου, έχει ζητήσει από την ελληνική εποπτική αρχή να «παγώσει» προσωρινά η διάθεση και χρήση του νέου δημοφιλούς chatbot μέχρι να παρασχεθούν σχετικές απαντήσεις.

«Δεν φαίνεται να υπάρχουν οι δικλίδες ασφαλείας που απαιτούνται από τη νομοθεσία», λέει στην «Κ» ο Λευτέρης Χελιουδάκης, εκτελεστικός διευθυντής στη Homo Digitalis. «Η πολιτική απορρήτου της DeepSeek δεν είναι λεπτομερής, δεν αναφέρει αναλυτικά τα δεδομένα που συλλέγει, ή σε ποιους τα μεταβιβάζει». Στο αίτημα που έστειλε τις προηγούμενες ημέρες η οργάνωση προς την ελληνική Αρχή Προστασίας Δεδομένων Προσωπικού Χαρακτήρα αναφέρεται ότι η DeepSeek αποθηκεύει τα προσωπικά δεδομένα χρηστών σε διακομιστές που βρίσκονται στην Κίνα χωρίς τις προϋποθέσεις που θέτει ο Γενικός Κανονισμός Προστασίας Δεδομένων (GDPR) και δίχως κάποια ενημέρωση για τους πιθανούς κινδύνους που εγκυμονούν αυτές οι διαβιβάσεις.

Δεν είναι γνωστό πόσο έχει προλάβει να διαδοθεί η χρήση του μοντέλου της DeepSeek στη χώρα μας. Το παγκόσμιο αποτύπωμά του, πάντως, δεν είναι αμελητέο. Η εφαρμογή για κινητά τηλέφωνα εκτιμάται ότι κατέβηκε τουλάχιστον 2,6 εκατομμύρια φορές από την ημέρα που ήταν διαθέσιμη. Η προθεσμία των Ιταλών όμως δεν χρειάστηκε να εκπνεύσει. Στις 30 Ιανουαρίου, η ιταλική εποπτική αρχή μπλόκαρε το κινεζικό chatbot. Σύμφωνα με τη σχετική ανακοίνωση, η κινεζική πλευρά υποστήριξε ότι δεν διαθέτει τις υπηρεσίες της στην Ιταλία και ότι δεν υπόκειται στην ευρωπαϊκή νομοθεσία.

Ευαίσθητες πληροφορίες

Ο Θοδωρής Χριστάκης, καθηγητής Νομικής στο Πανεπιστήμιο της Γκρενόμπλ, επισημαίνει ότι οι αλληλεπιδράσεις των χρηστών με το chatbot ενδέχεται να περιέχουν ευαίσθητες προσωπικές πληροφορίες, όπως εμπιστευτικές μεταφράσεις, ιατρικό ιστορικό, διορθώσεις εταιρικών κειμένων. Από τη στιγμή που η εταιρεία προσφέρει τις υπηρεσίες της εντός Ευρωπαϊκής Ενωσης, τότε θα πρέπει να εφαρμοστεί πλήρως ο GDPR. Ωστόσο η πολιτική απορρήτου της DeepSeek, όπως έχει αναρτηθεί στην ιστοσελίδα της, δεν αναφέρεται στον κανονισμό ούτε μία φορά, «εγείροντας σοβαρά ερωτήματα σχετικά με το εάν και πώς εφαρμόζουν τις προστασίες του».

Οπως παρατηρεί ο κ. Χριστάκης, δύο είναι οι βασικές ανησυχίες που προκύπτουν: Πώς προστατεύονται τα δεδομένα από πιθανή πρόσβαση των κινεζικών αρχών, καθώς και τι είδους ευρωπαϊκά προσωπικά δεδομένα χρησιμοποιήθηκαν για την εκπαίδευση των μοντέλων της DeepSeek.

«Οταν το ChatGPT ξεκίνησε στην Ευρωπαϊκή Ενωση τον Νοέμβριο του 2022 υπό παρόμοιες συνθήκες, οι Αρχές Προστασίας Δεδομένων σε 15 χώρες άρχισαν έρευνες και η ιταλική ήταν η πρώτη που επέβαλε πρόστιμο ύψους 15 εκατομμυρίων ευρώ στην OpenAI τον περασμένο Δεκέμβριο», τονίζει ο κ. Χριστάκης. Πέρα από την Ιταλία και οι εποπτικές αρχές στην Ιρλανδία και στο Βέλγιο ζήτησαν πρόσφατα πληροφορίες για τον βαθμό συμμόρφωσης της κινεζικής πλευράς με την ευρωπαϊκή νομοθεσία.

Ποτέ στο κινητό

«Υπάρχουν επιφυλάξεις ως προς την προστασία των προσωπικών δεδομένων. Δεν θα έβαζα αυτή την εφαρμογή στο κινητό μου τηλέφωνο, καθώς οι κινεζικές εταιρείες είναι υποχρεωμένες να συνεργάζονται με την κινεζική κυβέρνηση», σημειώνει στην «Κ» ο Βασίλης Βλάχος, αναπληρωτής καθηγητής στο Τμήμα Οικονομικών Επιστημών του Πανεπιστημίου Θεσσαλίας. «Πρέπει να εξετάσουμε αρκετές παραμέτρους προτού υιοθετήσουμε μια λύση σαν και αυτή. Σίγουρα είναι ελκυστική, αλλά οτιδήποτε τόσο μεγάλο και σύνθετο που επηρεάζει τις ζωές ή και τις αποφάσεις μας δεν πρέπει να το υιοθετούμε άκριτα».

Διάτρητη ασφάλεια «Δεν φαίνεται να υπάρχουν οι δικλίδες ασφαλείας που απαιτούνται από τη νομοθεσία. Η πολιτική απορρήτου της DeepSeek δεν είναι λεπτομερής, δεν αναφέρει αναλυτικά τα δεδομένα που συλλέγει ή σε ποιους τα μεταβιβάζει». Λευτέρης Χελιουδάκης Εκτελεστικός διευθυντής στη Homo Digitalis

Παρόμοια προσέγγιση έχει και ο ερευνητής ασφαλείας δικτύων Δημήτρης Σιατήρας, ο οποίος δεν θα κατεβάσει την εφαρμογή στο κινητό του. Μεταξύ άλλων, αναφέρει ότι αποτρεπτικός παράγοντας για τον ίδιο είναι ότι η DeepSeek ζητάει από τον χρήστη να εγγραφεί με το email του ακόμη και για να δοκιμάσει το chatbot, κάτι που δεν απαιτούν τα μοντέλα άλλων εταιρειών. Μπορεί ο ίδιος βέβαια να πειραματιστεί αλλιώς, παρακάμπτοντας και τις ανησυχίες για το πού καταλήγουν και πώς αξιοποιούνται τα προσωπικά του δεδομένα. Μια και πρόκειται για εφαρμογή ανοιχτού κώδικα, μπορεί κάποιος γνώστης να κατεβάσει τις παραμέτρους στον υπολογιστή του και να τρέξει το DeepSeek τοπικά, εκτός σύνδεσης, περιορίζοντας στον υπολογιστή του κάθε αλληλεπίδραση που συμβαίνει με το chatbot.

Δοκιμάζοντας γρίφους

Πόσο ικανό είναι όμως το νέο μοντέλο τεχνητής νοημοσύνης που έχει λανσάρει η DeepSeek; Η ίδια η εταιρεία υποστηρίζει ότι το μοντέλο της επιτυγχάνει απόδοση αιχμής σε πολλά τεστ που ενδιαφέρουν την ερευνητική κοινότητα, όπως μαθηματικά στο επίπεδο Ολυμπιάδας, προβλήματα διδακτορικού επιπέδου, αλλά και δύσκολα προγραμματιστικά προβλήματα. Ο Δημήτρης Παπαηλιόπουλος, καθηγητής Ηλεκτρολόγων Μηχανικών και Μηχανικών Υπολογιστών στο Πανεπιστήμιο του Ουισκόνσιν, παρατηρεί ότι το κινεζικό μοντέλο «φτάνει σε επίπεδα που σε ορισμένες περιπτώσεις προσεγγίζουν ή και ξεπερνούν την επίδοση του προηγούμενου κορυφαίου μοντέλου ο1 της OpenAI».

Ο ίδιος το έχει δοκιμάσει με κάποιους γρίφους και διαπίστωσε ότι τα καταφέρνει «εντυπωσιακά καλά». Σε έναν από αυτούς τους γρίφους παρέθεσε στο μοντέλο της DeepSeek πέντε γραμμές με αριθμούς και λέξεις. Κάθε γραμμή περιείχε έναν αριθμό γραμμένο σε διαφορετικές γλώσσες, ένα άσχετο όνομα, έναν αριθμό στα αγγλικά γραμμένο ανεστραμμένα, ένα δεύτερο όνομα που λειτουργούσε ως παρεμβολή και στο τέλος το άθροισμα των δύο αριθμών. Δηλαδή σε μια σειρά έγραψε: «πέντε Κώστας eerht-ytnewt Ανθή 28». Στο τέλος ζήτησε από το μοντέλο τεχνητής νοημοσύνης να βρει ποιος αριθμός πρέπει να μπει στη θέση του Χ σε αυτή τη σειρά: «minus one Shannon net Γιώργος X». Η σωστή απάντηση είναι το 9. «Αυτός είναι ένας γρίφος που έως τώρα πολύ λίγα μοντέλα μπορούσαν να λύσουν», λέει ο κ. Παπαηλιόπουλος. Το μοντέλο της DeepSeek τον έλυσε.

Πέρα από τη δυνατότητα να δίνει σωστές απαντήσεις, ωστόσο, το κινεζικό chatbot εμφανίζει σε κάθε ερώτημα την «αλυσίδα συλλογισμού» που ακολουθεί. Μοιάζει, κατά κάποιον τρόπο, ανάλογα και με το ερώτημα που έχει τεθεί, σαν να παρακολουθεί εκείνη τη στιγμή ο χρήστης τον εσωτερικό μονόλογο, τον τρόπο σκέψης μιας μηχανής. «Ο.Κ., προσπαθώ να δω εάν τα Ελγίνεια Μάρμαρα πρέπει να επιστρέψουν στην Ελλάδα. Πρώτα πρέπει να καταλάβω τι είναι τα Ελγίνεια Μάρμαρα. Από ό,τι θυμάμαι, είναι κλασικά ελληνικά γλυπτά που είχαν παρθεί από τον Παρθενώνα, στην Αθήνα, στις αρχές του 19ου αιώνα…». Ετσι ξεκίνησε την πορεία του συλλογισμού του όταν τέθηκε το αντίστοιχο ερώτημα από Ελληνα χρήστη.

Ο κ. Παπαηλιόπουλος λέει ότι η σχετική λειτουργία είναι αρκετά διαφωτιστική, διότι δίνει στον χρήστη ένα εργαλείο για να κατανοήσει πώς το μοντέλο προσεγγίζει ένα πρόβλημα και, ίσως, να αντιληφθεί πιθανά μοτίβα αποτυχίας ή επιτυχίας. «Παράλληλα, είναι χρήσιμο να παρακολουθεί κανείς τον τρόπο με τον οποίο το μοντέλο πραγματοποιεί αυτοαξιολόγηση, εξετάζει εναλλακτικές όταν “κολλάει” και προσπαθεί εκ νέου μέχρι να λύσει το πρόβλημα», προσθέτει.

Πολιτικός «συλλογισμός»

Πόσο ειλικρινές είναι, όμως, αυτό το μοντέλο όταν εδράζεται στην Κίνα, μια χώρα γνωστή για τους αυστηρούς περιορισμούς που θέτει στο Διαδίκτυο; Το πρώτο πείραμα που έκαναν χρήστες του νέου chatbot ήταν να ρωτήσουν για τη φοιτητική εξέγερση στην πλατεία Τιενανμέν, χωρίς να εισπράξουν απάντηση. Μια συντάκτρια των New York Times δοκίμασε να θέσει πολιτικά ευαίσθητες ερωτήσεις εντός έδρας, καθώς ζει στην Κίνα και είχε εγγραφεί στο chatbot καταχωρίζοντας κινεζικό αριθμό κινητού τηλεφώνου. Εάν ρωτούσε κάτι στα αγγλικά, όπως για παράδειγμα οι κινητοποιήσεις κατά των αυστηρών μέτρων στην περίοδο της πανδημίας, η εφαρμογή θα σκεφτόταν για λίγο την απάντηση και θα εμφάνιζε για λίγα δευτερόλεπτα στην οθόνη τη «γραμμή συλλογισμού» της προτού διαγράψει έπειτα τα πάντα και αυτολογοκριθεί. Εάν το ίδιο ερώτημα γινόταν στα κινεζικά δεν θα εμφανιζόταν καν «γραμμή συλλογισμού».

Παρόμοια συμπεριφορά έχει και ένα άλλο κινεζικό chatbot που δοκίμασε η «Κ», το Kimi. Σε ερώτηση σχετικά με τις κινητοποιήσεις την περίοδο της πανδημίας, αρχικά επεξεργάστηκε 26 σχετικά κείμενα σε ιστοσελίδες προτού σβήσει το σκεπτικό του και απαντήσει: «Λυπάμαι, δεν μπορώ να δώσω αυτές τις πληροφορίες. Μη διστάσετε να κάνετε μια άλλη ερώτηση».

Κεντρική φωτό: Η εφαρμογή του DeepSeek για κινητά τηλέφωνα κατέβηκε τουλάχιστον 2,6 εκατομμύρια φορές από την ημέρα που ήταν διαθέσιμη, παρά τις ενστάσεις των ειδικών για το επίπεδο ασφαλείας των προσωπικών δεδομένων των χρηστών. Τις ανησυχίες ήρθε να ενισχύσει ο ισχυρισμός της κινεζικής πλευράς ότι «δεν υπόκειται στην ευρωπαϊκή νομοθεσία», συνεπώς δεν υποχρεούται να εφαρμόζει τον κανονισμό GDPR. [REUTERS/Dado Ruvic/Illustration]


Δεν είναι ορατοί οι σύνδεσμοι (links). Εγγραφή ή Είσοδος
« Τελευταία τροποποίηση: 9 Φεβρουαρίου 2025, 07:49:57 από Argirios Argiriou »
Before ordering a test decide what you will do if it is (1) positive, or (2) negative. If both answers are the same, don't do the test. Archie Cochrane.

Λέξεις κλειδιά: chatgpt 
 

Σχετικά θέματα

  Τίτλος / Ξεκίνησε από Απαντήσεις Τελευταίο μήνυμα
1 Απαντήσεις
67898 Εμφανίσεις
Τελευταίο μήνυμα 2 Νοεμβρίου 2020, 08:20:28
από Argirios Argiriou
9 Απαντήσεις
8940 Εμφανίσεις
Τελευταίο μήνυμα 12 Σεπτεμβρίου 2010, 21:23:47
από Gatekeeper
0 Απαντήσεις
5517 Εμφανίσεις
Τελευταίο μήνυμα 16 Ιανουαρίου 2011, 22:55:14
από Gatekeeper
0 Απαντήσεις
6826 Εμφανίσεις
Τελευταίο μήνυμα 13 Φεβρουαρίου 2016, 21:45:27
από Argirios Argiriou
0 Απαντήσεις
17422 Εμφανίσεις
Τελευταίο μήνυμα 13 Απριλίου 2021, 13:55:43
από Argirios Argiriou