Οι φόβοι της Silicon Valley: Γιατί οι δισεκατομμυριούχοι της τεχνολογίας χτίζουν καταφύγια

Οι φόβοι της Silicon Valley: Γιατί οι δισεκατομμυριούχοι της τεχνολογίας χτίζουν καταφύγια Facebook Twitter
Ο Μαρκ Ζούκερμπεργκ/Φωτογραφία: Facebook
0

Ο Μαρκ Ζούκερμπεργκ ξεκίνησε να κατασκευάζει το Koolau Ranch, μια τεράστια έκταση 1.400 στρεμμάτων στο νησί Καουάι της Χαβάης, ήδη από το 2014.

Σύμφωνα με ρεπορτάζ του περιοδικού Wired, το έργο περιλαμβάνει και υπόγειο καταφύγιο με δική του παροχή ενέργειας και τροφίμων, ενώ οι τεχνίτες που εργάζονται στο σημείο έχουν υπογράψει ρήτρες εμπιστευτικότητας ώστε να μη μιλούν δημόσια για τις εργασίες.

Ένας τοίχος ύψους δύο μέτρων εμποδίζει την ορατότητα από τον κεντρικό δρόμο, ενώ τα τοπικά μέσα αναφέρουν πως η έκταση μοιάζει περισσότερο με οχυρό παρά με εξοχική κατοικία. Όταν ρωτήθηκε πέρυσι αν πρόκειται για καταφύγιο “τέλους του κόσμου”, ο ιδρυτής του Facebook απάντησε κατηγορηματικά «όχι», εξηγώντας πως πρόκειται απλώς για «ένα μικρό υπόγειο, σαν υπόγεια αποθήκη».

Παρά τις διαβεβαιώσεις, η φημολογία επιμένει, όχι μόνο για το πρότζεκτ στη Χαβάη, αλλά και για την αγορά έντεκα κατοικιών από τον Ζούκερμπεργκ στο Palo Alto της Καλιφόρνιας, όπου φέρεται να κατασκευάζει άλλο ένα μεγάλο υπόγειο χώρο 650 τετραγωνικών μέτρων. Τα τοπικά έγγραφα μιλούν για «basement (υπόγειο)», όμως οι γείτονες το αποκαλούν bunker (καταφύγιο) — ή, όπως το έθεσε ένας, «η σπηλιά του Μπάτμαν για δισεκατομμυριούχους».

Η ιδέα των ιδιωτικών καταφυγίων δεν περιορίζεται στον Ζούκερμπεργκ. Πολλοί γνωστοί τεχνολογικοί ηγέτες φέρονται να έχουν επενδύσει σε απομονωμένες εκτάσεις με υπόγειες εγκαταστάσεις, σχεδιασμένες να αντέχουν κρίσεις, από φυσικές καταστροφές έως κοινωνικές αναταραχές. Ο Ριντ Χόφμαν, συνιδρυτής του LinkedIn, έχει μιλήσει ανοιχτά για «ασφάλιση αποκάλυψης» (apocalypse insurance), υποστηρίζοντας ότι περίπου οι μισοί δισεκατομμυριούχοι διαθέτουν τέτοια σχέδια, με τη Νέα Ζηλανδία να αποτελεί δημοφιλή προορισμό.

Τι φοβούνται οι ηγέτες της τεχνολογίας

Το ερώτημα που προκύπτει είναι προφανές: προετοιμάζονται πράγματι για πόλεμο, για την κλιματική κρίση ή για κάποιον άλλο καταστροφικό κίνδυνο που οι υπόλοιποι αγνοούμε;

Ορισμένοι από τους πιο γνωστούς επιχειρηματίες της Silicon Valley φαίνεται πως το σκέφτονται σοβαρά. Ο Σαμ Άλτμαν, διευθύνων σύμβουλος της OpenAI, είχε κάποτε αναφερθεί στην ιδέα να ενωθεί με τον επενδυτή Πίτερ Τιλ σε μια απομονωμένη ιδιοκτησία στη Νέα Ζηλανδία σε περίπτωση παγκόσμιας κρίσης.

Η ανησυχία αυτή έχει ενταθεί τα τελευταία χρόνια, καθώς η ραγδαία πρόοδος της τεχνητής νοημοσύνης (AI) δημιουργεί νέες προσδοκίες αλλά και υπαρξιακούς φόβους. Ο Ίλια Σούτσκιβερ, συνιδρυτής και επικεφαλής επιστήμονας της OpenAI, λέγεται ότι είναι ένας από αυτούς που εκφράζουν τις πιο βαθιές ανησυχίες.

Μέχρι τα μέσα του 2023, η εταιρεία του είχε ήδη λανσάρει το ChatGPT, το εργαλείο που άλλαξε τον τρόπο με τον οποίο εκατοντάδες εκατομμύρια άνθρωποι αλληλεπιδρούν με την τεχνολογία. Όμως, σύμφωνα με το βιβλίο της δημοσιογράφου Karen Hao, εκείνο το καλοκαίρι ο Σούτσκιβερ άρχισε να πείθεται ότι οι ερευνητές βρίσκονταν πολύ κοντά στην ανάπτυξη γενικής τεχνητής νοημοσύνης (AGI), δηλαδή ενός συστήματος που θα μπορούσε να φτάσει ή και να ξεπεράσει την ανθρώπινη ευφυΐα.

Σε μια εσωτερική σύσκεψη, φέρεται να είπε στους συνεργάτες του ότι η εταιρεία θα έπρεπε να χτίσει ένα υπόγειο καταφύγιο για τους βασικούς επιστήμονες της πριν κυκλοφορήσει μια τόσο ισχυρή τεχνολογία στον κόσμο. «Θα φτιάξουμε σίγουρα ένα bunker πριν δημοσιεύσουμε την AGI», φέρεται να είπε, χωρίς να διευκρινίσει ποιοι ακριβώς περιλαμβάνονταν στο «εμείς».

Η φράση του Σούτσκιβερ, όσο και αν ειπώθηκε χαριτολογώντας, αποτυπώνει μια παράδοξη πραγματικότητα: οι ίδιοι άνθρωποι που εργάζονται για να δημιουργήσουν εξαιρετικά ευφυή μηχανήματα φαίνεται να φοβούνται περισσότερο από όλους τις πιθανές συνέπειες.

Πότε θα έρθει η «γενική» τεχνητή νοημοσύνη;

Το ερώτημα που απασχολεί πλέον όχι μόνο τους επιστήμονες, αλλά και την κοινή γνώμη, είναι πότε —και αν ποτέ— θα φτάσουμε πραγματικά στην εποχή της “γενικής τεχνητής νοημοσύνης” (AGI).

Κάποιοι τεχνολογικοί ηγέτες θεωρούν ότι αυτό είναι θέμα λίγων ετών. Ο διευθύνων σύμβουλος της OpenAI, Σαμ Άλτμαν, δήλωσε τον Δεκέμβριο του 2024 ότι η AGI θα έρθει «νωρίτερα απ’ ό,τι πιστεύουν οι περισσότεροι». Ο Ντέμις Χασάμπις, συνιδρυτής της DeepMind, μιλά για ορίζοντα πενταετίας έως δεκαετίας, ενώ ο Ντάριο Αμοντέι της Anthropic έχει γράψει πως οι «ισχυρές μορφές τεχνητής νοημοσύνης» θα μπορούσαν να εμφανιστούν ήδη από το 2026.

Όμως, αρκετοί ειδικοί διαφωνούν με αυτές τις προβλέψεις. Η Καθηγήτρια Wendy Hall από το Πανεπιστήμιο του Σαουθάμπτον, μία από τις πιο επιδραστικές φωνές στην ευρωπαϊκή επιστημονική κοινότητα, δηλώνει ειρωνικά: «Μετακινούν συνεχώς τα δοκάρια του τέρματος· όλα εξαρτώνται από το ποιον ρωτάς».

«Η επιστήμη έχει κάνει εντυπωσιακά άλματα», συνεχίζει, «αλλά η τεχνητή νοημοσύνη απέχει ακόμη πολύ από το να φτάσει τη συνθετότητα και τη δημιουργικότητα του ανθρώπινου νου».

Στο ίδιο μήκος κύματος, ο Babak Hodjat, τεχνικός διευθυντής της εταιρείας Cognizant, εξηγεί ότι πριν φτάσουμε σε ένα τέτοιο επίπεδο θα χρειαστούν θεμελιώδεις επιστημονικές ανακαλύψεις. Και ακόμη κι αν η AGI κάποτε προκύψει, είναι απίθανο να εμφανιστεί ως μια “στιγμή αφύπνισης”, αλλά μάλλον ως συνεχής διαδικασία εξέλιξης μέσα από πολλά διαφορετικά συστήματα που αναπτύσσονται ταυτόχρονα σε όλο τον κόσμο.

Η ιδέα πάντως συναρπάζει τη Silicon Valley, καθώς θεωρείται προοίμιο μιας ακόμη πιο προχωρημένης φάσης: της τεχνητής υπερνοημοσύνης (ASI), δηλαδή ενός είδους τεχνολογίας που θα ξεπερνά σε ικανότητες τον άνθρωπο.

Από τη «μοναδικότητα» μέχρι την υπερνοημοσύνη

Η ιδέα ότι οι μηχανές μπορεί κάποτε να ξεπεράσουν τον άνθρωπο δεν είναι καινούργια. Ο όρος «τεχνολογική μοναδικότητα» (singularity) αποδίδεται στον Ούγγρο μαθηματικό Τζον φον Νόιμαν, ήδη από το 1958. Περιγράφει τη στιγμή όπου η εξέλιξη της τεχνητής νοημοσύνης θα προχωρήσει τόσο γρήγορα, ώστε ο ανθρώπινος νους δεν θα μπορεί πλέον να την κατανοήσει.

Η ιδέα αυτή έχει επανέλθει δυναμικά τα τελευταία χρόνια. Στο βιβλίο Genesis (2024), οι Έρικ Σμιντ, Κρεγκ Μάντι και Χένρι Κίσινγκερ εξετάζουν ένα σενάριο στο οποίο η τεχνολογία αποκτά τόση ισχύ στη λήψη αποφάσεων, ώστε οι άνθρωποι καταλήγουν να της παραχωρήσουν πλήρως τον έλεγχο. Για τους συγγραφείς, το ζήτημα δεν είναι «αν» θα συμβεί αυτό — αλλά πότε.

Οι υποστηρικτές της υπερνοημοσύνης βλέπουν στο σενάριο αυτό μια νέα χρυσή εποχή προόδου. Πιστεύουν ότι μια τέτοια τεχνολογία θα μπορούσε να ανακαλύψει θεραπείες για ανίατες ασθένειες, να αντιμετωπίσει την κλιματική κρίση και να δημιουργήσει ανεξάντλητες πηγές καθαρής ενέργειας.

Ο Έλον Μασκ, από τους πιο γνωστούς υπέρμαχους αυτής της άποψης, έχει δηλώσει πως η τεχνητή υπερνοημοσύνη μπορεί να οδηγήσει σε μια εποχή «καθολικού υψηλού εισοδήματος», όπου η παραγωγικότητα θα είναι τόσο μεγάλη που οι άνθρωποι δεν θα χρειάζονται εργασία για να ζουν άνετα.

Όπως είπε χαρακτηριστικά, η μελλοντική τεχνολογία θα είναι τόσο προσιτή ώστε «ο καθένας θα έχει το δικό του προσωπικό R2-D2 και C-3PO», αναφερόμενος στα ρομπότ του Star Wars.

Η σκοτεινή πλευρά της τεχνητής νοημοσύνης

Όπως συμβαίνει με κάθε μεγάλη τεχνολογική υπόσχεση, υπάρχει και η σκοτεινή πλευρά. Πολλοί επιστήμονες και επιχειρηματίες προειδοποιούν ότι μια υπερνοημοσύνη θα μπορούσε να εξελιχθεί σε απειλή για την ίδια την ανθρωπότητα.

Τι θα συνέβαινε, αναρωτιούνται, αν ένα τέτοιο σύστημα αποφάσιζε ότι ο άνθρωπος είναι το πρόβλημα; Ή αν τρομοκρατικές οργανώσεις αξιοποιούσαν την τεχνολογία για τη δημιουργία όπλων μαζικής καταστροφής;

Ο Τιμ Μπέρνερς-Λι, δημιουργός του Παγκόσμιου Ιστού, δήλωσε πρόσφατα στο BBC ότι η ανθρωπότητα πρέπει να μπορεί «να τραβήξει το καλώδιο» όποτε χρειαστεί. «Αν είναι πιο έξυπνη από εμάς, τότε πρέπει να την κρατήσουμε υπό έλεγχο», είπε χαρακτηριστικά.

Οι κυβερνήσεις έχουν αρχίσει να αντιδρούν. Στις Ηνωμένες Πολιτείες, ο πρόεδρος Τζο Μπάιντεν υπέγραψε το 2023 ένα εκτελεστικό διάταγμα που υποχρέωνε ορισμένες εταιρείες να κοινοποιούν τα αποτελέσματα ελέγχων ασφαλείας των συστημάτων τους στο ομοσπονδιακό κράτος. Όμως ο Ντόναλντ Τραμπ, μόλις ανέλαβε εκ νέου την εξουσία, αναίρεσε μέρος των ρυθμίσεων, θεωρώντας ότι «παρεμποδίζουν την καινοτομία».

Στο Ηνωμένο Βασίλειο, η κυβέρνηση δημιούργησε το Ινστιτούτο Ασφάλειας Τεχνητής Νοημοσύνης, έναν δημόσιο φορέα έρευνας που μελετά τις πιθανές επιπτώσεις από τα συστήματα AI υψηλής ισχύος.

Κι ενώ οι κρατικές πολιτικές βρίσκονται ακόμη στα πρώτα τους βήματα, οι υπερ-πλούσιοι της Silicon Valley φαίνεται πως ακολουθούν δική τους στρατηγική επιβίωσης, από την αγορά εκτάσεων στη Νέα Ζηλανδία μέχρι την κατασκευή ιδιωτικών bunkers σε απομονωμένα μέρη.

Η ανθρώπινη αδυναμία πίσω από τα σχέδια «επιβίωσης»

Όσο εντυπωσιακά κι αν ακούγονται τα σχέδια «αποκάλυψης» των δισεκατομμυριούχων της τεχνολογίας, έχουν κι αυτά τη δική τους ειρωνεία. Ο συνιδρυτής του LinkedIn Ριντ Χόφμαν έχει πει χαρακτηριστικά ότι όταν κάποιος «αγοράζει σπίτι στη Νέα Ζηλανδία», πρόκειται για ένα σιωπηρό μήνυμα μεταξύ των πλουσίων: «ένα νεύμα, μια υπόνοια, χωρίς να χρειαστεί να πεις τίποτα παραπάνω».

Ωστόσο, όπως δείχνουν ορισμένες μαρτυρίες, ακόμη και τα καλύτερα σχεδιασμένα bunker ίσως να μην προστατεύουν τελικά εκείνους που τα έχτισαν. Ένας πρώην σωματοφύλακας ενός από αυτούς τους επιχειρηματίες αποκάλυψε ότι, σε περίπτωση πραγματικής κρίσης, η ομάδα ασφαλείας του θα φρόντιζε πρώτα να εξουδετερώσει το αφεντικό και μετά να καταφύγει η ίδια στο υπόγειο καταφύγιο. Και, όπως είπε, δεν αστειευόταν.

Η ιστορία αυτή συνοψίζει μια ευρύτερη αντίφαση που χαρακτηρίζει τον κόσμο της τεχνολογίας: εκείνοι που επενδύουν σε συστήματα που υπόσχονται να σώσουν την ανθρωπότητα, φαίνεται πως έχουν ελάχιστη εμπιστοσύνη στους ανθρώπους γύρω τους — ή ακόμη και στους ίδιους τους υπαλλήλους τους.

Μύθος ή πραγματικός κίνδυνος;

Για κάποιους επιστήμονες, όλη αυτή η συζήτηση για την «τεχνητή γενική νοημοσύνη» αγγίζει τα όρια της υπερβολής. Ο Νιλ Λόρενς, καθηγητής μηχανικής μάθησης στο Πανεπιστήμιο του Κέιμπριτζ, απορρίπτει πλήρως την έννοια της AGI.

«Η ιδέα μιας “γενικής” τεχνητής νοημοσύνης είναι τόσο παράλογη όσο και η ιδέα ενός “γενικού οχήματος”», λέει χαρακτηριστικά. «Κανένα μέσο δεν μπορεί να κάνει τα πάντα· χρησιμοποιώ αεροπλάνο για να πάω στην Κένυα, αυτοκίνητο για να φτάσω στο πανεπιστήμιο και περπατώ ως την καντίνα. Δεν υπάρχει όχημα που να τα καταφέρνει όλα».

Για τον Λόρενς, η εμμονή με την AGI αποπροσανατολίζει τη συζήτηση από τα πραγματικά ζητήματα. «Η τεχνολογία που έχουμε ήδη φτιάξει», τονίζει, «επιτρέπει για πρώτη φορά σε έναν απλό άνθρωπο να μιλά απευθείας με μια μηχανή και να βλέπει το αποτέλεσμα που θέλει. Αυτό είναι πραγματικά επαναστατικό».

Το πρόβλημα, όπως λέει, είναι ότι η κοινωνία έχει αφεθεί να παρασυρθεί από τη ρητορική των μεγάλων εταιρειών τεχνολογίας, αντί να εστιάζει στο πώς η τεχνητή νοημοσύνη μπορεί πραγματικά να βελτιώσει τη ζωή των ανθρώπων.

Τι μπορεί –και τι δεν μπορεί– να κάνει η τεχνητή νοημοσύνη σήμερα

Τα σημερινά συστήματα τεχνητής νοημοσύνης έχουν εντυπωσιακές ικανότητες, αλλά και ξεκάθαρα όρια. Εκπαιδεύονται πάνω σε τεράστιους όγκους δεδομένων, αναγνωρίζουν μοτίβα και προβλέπουν ποια λέξη ή εικόνα είναι πιθανότερο να ακολουθήσει μια άλλη. Έτσι μπορούν να εντοπίζουν ενδείξεις όγκων σε ιατρικές εξετάσεις ή να παράγουν κείμενα και εικόνες που μοιάζουν ανθρώπινες.

Ωστόσο, όπως εξηγούν οι ειδικοί, αυτά τα συστήματα δεν «αισθάνονται» και δεν «κατανοούν» τον κόσμο με τον τρόπο που το κάνει ένας άνθρωπος — όσο πειστικές κι αν φαίνονται οι απαντήσεις τους.

«Υπάρχουν κάποιες τεχνικές που κάνουν τα μοντέλα μεγάλης γλώσσας να φαίνονται σαν να “θυμούνται” και να “μαθαίνουν”, όμως στην πραγματικότητα πρόκειται για τεχνητά κόλπα, πολύ κατώτερα από την ανθρώπινη μάθηση», εξηγεί ο Μπαμπάκ Χότζιατ της εταιρείας Cognizant.

Ο Βινς Λιντς, διευθύνων σύμβουλος της IV.AI στην Καλιφόρνια, συμφωνεί ότι οι υπερβολικές υποσχέσεις γύρω από την AGI έχουν περισσότερο επικοινωνιακό παρά επιστημονικό χαρακτήρα. «Είναι εξαιρετικό μάρκετινγκ», λέει. «Αν δηλώσεις ότι χτίζεις το πιο έξυπνο πράγμα που έχει υπάρξει ποτέ, είναι λογικό οι επενδυτές να θελήσουν να σου δώσουν χρήματα».

Σύμφωνα με τον ίδιο, η πραγματικότητα είναι πολύ πιο γήινη: «Δεν είναι θέμα δύο ή τριών ετών· απαιτεί τεράστια υπολογιστική ισχύ, δημιουργικότητα και αμέτρητα πειράματα».

Ευφυΐα χωρίς συνείδηση

Σε ορισμένες περιπτώσεις, τα σύγχρονα συστήματα τεχνητής νοημοσύνης ξεπερνούν ήδη τις ανθρώπινες επιδόσεις — μπορούν, για παράδειγμα, να αναλύουν ιστορικά δεδομένα ή να λύνουν περίπλοκες μαθηματικές εξισώσεις με απίστευτη ταχύτητα.

Ωστόσο, ακόμη κι αν δείχνουν «έξυπνα», δεν διαθέτουν συνείδηση. Ορισμένες εταιρείες, όπως η Meta, παραδέχονται ότι δεν κατανοούν πάντα γιατί οι αλγόριθμοί τους παράγουν συγκεκριμένα αποτελέσματα, γεγονός που αυξάνει τις ανησυχίες για το πού μπορεί να οδηγήσει η εξέλιξή τους.

Οι ερευνητές υπενθυμίζουν ότι, παρά την πρόοδο, ο ανθρώπινος εγκέφαλος παραμένει πολύ πιο πολύπλοκος: περιέχει περίπου 86 δισεκατομμύρια νευρώνες και 600 τρισεκατομμύρια συνάψεις, αριθμοί που καμία τεχνητή δομή δεν πλησιάζει.

Σε αντίθεση με τα υπολογιστικά μοντέλα, ο εγκέφαλος προσαρμόζεται διαρκώς σε νέες πληροφορίες. «Αν πεις σε έναν άνθρωπο ότι ανακαλύφθηκε ζωή σε έναν εξωπλανήτη, θα το ενσωματώσει αμέσως στην κοσμοθεωρία του», λέει ο Χότζιατ. «Ένα μοντέλο τεχνητής νοημοσύνης θα το “ξέρει” μόνο όσο του το υπενθυμίζεις».

Τα σημερινά συστήματα δεν έχουν μεταγνώση — δηλαδή δεν γνωρίζουν τι γνωρίζουν. Οι άνθρωποι, αντίθετα, διαθέτουν αυτή την ενσυναίσθηση και αυτογνωσία που αποκαλούμε συνείδηση, κάτι που καμία μηχανή δεν έχει ακόμη πλησιάσει.

Με πληροφορίες από BBC

 

Τech & Science
0

ΔΕΙΤΕ ΑΚΟΜΑ

Οι περισσότεροι άνθρωποι δεν ξεχωρίζουν την ανθρώπινη φωνή από εκείνη που έχει δημιουργηθεί μέσω τεχνητής νοημοσύνης

Τech & Science / Οι περισσότεροι άνθρωποι δεν ξεχωρίζουν την ανθρώπινη φωνή από εκείνη που έχει δημιουργηθεί μέσω τεχνητής νοημοσύνης

Φαίνεται πως όσο η τεχνολογία εξελίσσεται με ταχύτατους ρυθμούς, γίνεται όλο και πιο δύσκολο να ξεχωρίσουμε τι είναι αληθινό και τι όχι
LIFO NEWSROOM
Sora: Η εφαρμογή AI βίντεο της OpenAI έφτασε τις 1 εκατ. λήψεις πιο γρήγορα και από το ChatGPT

Τech & Science / Sora: Η εφαρμογή AI βίντεο της OpenAI έφτασε τις 1 εκατ. λήψεις πιο γρήγορα από το ChatGPT

Πολλά από τα βίντεο που παράγονται μέσω της Sora περιλαμβάνουν χαρακτήρες από ταινίες, τηλεοπτικές σειρές ή βιντεοπαιχνίδια, προκαλώντας νέα ερωτήματα γύρω από τα πνευματικά δικαιώματα
LIFO NEWSROOM
TikTok: Η επιστήμη πίσω από τον αλγόριθμο που μας κρατά κολλημένους

Τech & Science / TikTok: Η επιστήμη πίσω από τον αλγόριθμο που μας κρατά κολλημένους

Μια νέα μελέτη δείχνει πώς το TikTok δημιουργεί εθιστικές συνήθειες στους χρήστες, αυξάνοντας τον χρόνο παρακολούθησης, την συχνότητα ανοίγματος της εφαρμογής και την ταχύτητα scrolling, με σοβαρές επιπτώσεις στην καθημερινή ζωή
LIFO NEWSROOM
«Ξιφόδρακος του Ντόρσετ»: Ανακαλύφθηκε νέο είδος ιχθυόσαυρου στη Βρετανία

Τech & Science / «Ξιφόδρακος του Ντόρσετ»: Ανακαλύφθηκε νέο είδος ιχθυόσαυρου στη Βρετανία

Ένα εντυπωσιακό απολίθωμα ιχθυόσαυρου στην Ιουρασική Ακτή του Ντόρσετ αποδείχθηκε νέο είδος, το Xiphodracon goldencapensis ή «Ξιφόδρακος του Ντόρσετ», φωτίζοντας ένα χαμένο κεφάλαιο της εξέλιξης των θαλάσσιων ερπετών
LIFO NEWSROOM
Η αλήθεια για το θρυλικό ναυάγιο του Endurance: Ο Σάκλετον ήξερε ότι το πλοίο του ήταν ακατάλληλο

Τech & Science / Η αλήθεια για το θρυλικό ναυάγιο του Endurance: Ο Σάκλετον ήξερε ότι το πλοίο του ήταν ακατάλληλο

Νέα μελέτη αποκαλύπτει ότι το ιστορικό πλοίο Endurance του Έρνεστ Σάκλετον βυθίστηκε όχι εξαιτίας των πάγων, αλλά λόγω σχεδιαστικών αδυναμιών που ο ίδιος ο εξερευνητής γνώριζε
LIFO NEWSROOM
Google: Εισάγει το AI Mode στην Ελλάδα - Όσα αλλάζουν στην αναζήτηση

Τech & Science / Google: Εισάγει το AI Mode στην Ελλάδα - Όσα αλλάζουν στην αναζήτηση

Tο AI Mode χρησιμοποιεί την τεχνική "query fan-out" (διασπορά ερωτημάτων) της Google, η οποία αναλύει την ερώτηση των χρηστών σε επιμέρους θέματα και εκτελεί ταυτόχρονα πληθώρα αναζητήσεων για λογαριασμό του
LIFO NEWSROOM
Κατάθλιψη: Οι γυναίκες διατρέχουν μεγαλύτερο κίνδυνο εμφάνισης σε σύγκριση με τους άνδρες

Τech & Science / Κατάθλιψη: Οι γυναίκες διατρέχουν μεγαλύτερο κίνδυνο εμφάνισης σε σύγκριση με τους άνδρες

Η μελέτη αναγνωρίζει ότι υπάρχουν πολλαπλές εξηγήσεις για τη διαφορά στα ποσοστά κατάθλιψης μεταξύ ανδρών και γυναικών - από συμπεριφορικούς και περιβαλλοντικούς, έως βιολογικούς παράγοντες
LIFO NEWSROOM
Ευρωπαίοι πολιτικοί ελέγχθηκαν για PFAS – Όλοι βγήκαν θετικοί στα «παντοτινά πλαστικά»

Τech & Science / Ευρωπαίοι πολιτικοί ελέγχθηκαν για τοξικά χημικά PFAS – Όλοι βγήκαν θετικοί στα «παντοτινά πλαστικά»

«Πρόκειται για μια ανατριχιαστική πραγματικότητα. Είναι κρίσιμο να αναλάβουμε δράση» τόνισε ο Δανός υπουργός Περιβάλλοντος, στο αίμα του οποίου βρέθηκαν τρεις ουσίες τοξικές για την αναπαραγωγή
LIFO NEWSROOM
AI στα σχολεία: Όταν οι μαθητές διδάσκουν τους δασκάλους για την Τεχνητή Νοημοσύνη

Τech & Science / Αυτοί οι έφηβοι από τη Silicon Valley ορίζουν πώς θα μπει η AI στα σχολεία όλου του κόσμου

Μαθητές στη Σίλικον Βάλεϊ αναλαμβάνουν πρωτοβουλία να καθορίσουν οι ίδιοι –μαζί με γονείς και εκπαιδευτικούς– τους κανόνες χρήσης της Τεχνητής Νοημοσύνης στην εκπαίδευση
LIFO NEWSROOM