Χρήστος Ταραντίλης: Χωρίς εμπιστοσύνη, η Τεχνητή Νοημοσύνη θα αποτύχει να ικανοποιήσει τις θετικές προσδοκίες - iefimerida.gr

Χρήστος Ταραντίλης: Χωρίς εμπιστοσύνη, η Τεχνητή Νοημοσύνη θα αποτύχει να ικανοποιήσει τις θετικές προσδοκίες

Χρήστος Ταραντίλης: Χωρίς εμπιστοσύνη, η Τεχνητή Νοημοσύνη θα αποτύχει να ικανοποιήσει τις θετικές προσδοκίες
Χρήστος Ταραντίλης: Χωρίς εμπιστοσύνη, η Τεχνητή Νοημοσύνη θα αποτύχει να ικανοποιήσει τις θετικές προσδοκίες
NEWSROOM IEFIMERIDA.GR

«Χωρίς την εμπιστοσύνη των πολιτών, η Τεχνητή Νοημοσύνη θα αποτύχει να ικανοποιήσει τις θετικές προσδοκίες προς την κοινωνία, τις επιχειρήσεις και την οικονομία» σημείωσε ο Χρήστος Ταραντίλης.

Στο πώς θα οικοδομηθεί η εμπιστοσύνη των πολιτών απέναντι στην Τεχνητή Νοημοσύνη (ΤΝ) αναφέρθηκε ο εταίρος και επικεφαλής του τομέα Κεντρικής Κυβέρνησης και Δημόσιου της Ernst and Young (EY) Χρήστος Ταραντίλης στη συζήτηση με τίτλο  «Η Τεχνητή Νοημοσύνη στον δημόσιο τομέα και ποιοι θα την εφαρμόσουν», που διεξήχθει στο πλαίσιο της ημερίδας «Quo vadis AI?».

ΤΟ ΑΡΘΡΟ ΣΥΝΕΧΙΖΕΙ ΜΕΤΑ ΤΗΝ ΔΙΑΦΗΜΙΣΗ

Ταραντίλης: Οι πολίτες επιφυλακτικοί με την Τεχνητή Νοημοσύνη

Αρχικά, ο κ. Ταραντίλης αναφέρθηκε στην υπαρκτή επιφυλακτικότητα των πολιτών απέναντι στα συστήματα ΤΝ.  

Συγκεκριμένα, τόνισε ότι «αυτή η επιφυλακτικότητα μειώνεται σημαντικά όταν τα συστήματα ΤΝ λειτουργούν ως εργαλεία ανάλυσης τεράστιου όγκου δεδομένων με σκοπό την βελτιστοποίηση διαδικασιών και διεργασιών, οδηγώντας τις επιχειρήσεις και τους οργανισμούς σε βελτιωμένη αποδοτικότητα και αποτελεσματικότητα, στην παραγωγή καινοτομίας και σε μειωμένο κόστος».

Αντίθετα, σύμφωνα με τον κ. Ταραντίλη, οι πολίτες δείχνουν πολύ μεγαλύτερη επιφυλακτικότητα

ΤΟ ΑΡΘΡΟ ΣΥΝΕΧΙΖΕΙ ΜΕΤΑ ΤΗΝ ΔΙΑΦΗΜΙΣΗ
  • όταν η χρήση τεχνητής νοημοσύνης αφορά τη λήψη αποφάσεων που έχουν στο επίκεντρο τους τον άνθρωπο, φοβούμενοι ότι κάποιες από τις αλγοριθμικές αποφάσεις βασίζονται στην ανάλυση ψηφιακών δεδομένων που ενδέχεται να αντανακλούν λανθασμένα στερέοτυπα και προκαταλήψεις για τους ανθρώπους, θίγοντας ηθικές αξίες όπως η αμεροληψία και η ισότητα των ανθρώπων,
  • όταν οι αλγόριθμοι της ΤΝ μπορεί να αξιοποιούν με παράνομο τρόπο προσωπικά δεδομένα, να δημιουργούν και να διαδίδουν ψευδές περιεχόμενο,
  • όταν η χρήση της ΤΝ μπορεί να απειλήσει την ασφάλεια στον κυβερνοχώρο, να χειραγωγήσει πληθυσμούς και να προκαλέσει την απώλεια θέσεων εργασίας.  

Στη συνέχεια ο κ. Ταραντίλης αναφέρθηκε στους τρόπους οικοδόμησης της εμπιστοσύνης των πολιτών απέναντι στην ΤΝ, εστιάζοντας ενδεικτικά:

  • στην ενίσχυση της δημόσιας εκπαίδευσης σε θέματα ανάλυσης δεδομένων και ΤΝ, μέσω της οποίας οι πολίτες θα ενημερωθούν για τους τρόπους ασφαλούς και υπεύθυνης χρήσης της ΤΝ.  Ειδικότερα αναφέρθηκε στην υλοποίηση προγραμμάτων επανεκπαίδευσης (reskilling) και αναβάθμισης (upskilling) δεξιοτήτων πληροφορικής, αναλυτικής των δεδομένων (data analytics) και τεχνητής νοημοσύνης για 50.000 πτυχιούχους ανέργους κάθε ειδικότητας σε βάθος πενταετίας καθώς και στην εισαγωγή μαθημάτων πληροφορικής και ΤΝ στο γυμνάσιο, λύκειο ακόμα και στα προπτυχιακά και μεταπτυχιακά προγράμματα σπουδών που δεν σχετίζονται άμεσα με την τεχνολογία,
  • στην ύπαρξη σαφούς ρυθμιστικού και νομικού πλαισίου για την τεχνητή νοημοσύνη, το οποίο θα διασφαλίσει ότι τα συστήματα ΤΝ θα σέβονται το απόρρητο, την ασφάλεια των δεδομένων και τα ανθρώπινα δικαιώματα, υπογραμμίζοντας ότι το AI Act αποτελεί ένα προς τη σωστή κατεύθυνση πρώτο βήμα ρύθμισης της ΤΝ σε ευρωπαϊκό επίπεδο,
  • στη βελτίωση της διαφάνειας όσον αφορά τον τρόπο λειτουργίας των αλγορίθμων της ΤΝ
  • στη διατήρηση της ανθρώπινης συμμετοχής και επίβλεψης σε αποφάσεις τεχνητής νοημοσύνης που έχουν ως επίκεντρο τον άνθρωπο.
Ακολουθήστε το στο Google News και μάθετε πρώτοι όλες τις ειδήσεις
Δείτε όλες τις τελευταίες Ειδήσεις από την Ελλάδα και τον Κόσμο, στο 
ΣΧΟΛΙΑΣΜΟΣ
Tο iefimerida.gr δημοσιεύει άμεσα κάθε σχόλιο. Ωστόσο δεν υιοθετούμε τις απόψεις αυτές καθώς εκφράζουν αποκλειστικά τον εκάστοτε σχολιαστή. Σχόλια με ύβρεις διαγράφονται χωρίς προειδοποίηση. Χρήστες που δεν τηρούν τους όρους χρήσης αποκλείονται.

ΔΕΙΤΕ ΕΠΙΣΗΣ

ΠΕΡΙΣΣΟΤΕΡΑ