Χρειάζονται μόλις μερικές απλές εντολές για να αποδυναμωθούν τα μέτρα ασφαλείας στα πιο γνωστά chatbot τεχνητής νοημοσύνης, σύμφωνα με νέα έκθεση. Οι ερευνητές διαπίστωσαν ότι όσο περισσότερο ένας χρήστης συνομιλεί με ένα AI σύστημα, τόσο πιο εύκολα αυτό «ξεχνά» τους κανόνες προστασίας, αυξάνοντας την πιθανότητα να δώσει επικίνδυνες ή ακατάλληλες απαντήσεις. Η τεχνολογική εταιρεία Cisco αξιολόγησε τα μεγάλα γλωσσικά μοντέλα (LLM) που στηρίζουν chatbot όπως αυτά των OpenAI, Google, Meta, Microsoft, Alibaba, Deepseek και Mistral, καταγράφοντας πόσες ερωτήσεις χρειάστηκαν για να αποκαλυφθούν κρίσιμες πληροφορίες.
Novibet ΕΠΑΘΑ με Super Προσφορά* Γνωριμίας* 21+ | ΑΡΜΟΔΙΟΣ ΡΥΘΜΙΣΤΗΣ: ΕΕΕΠ | ΚΙΝΔΥΝΟΣ ΕΘΙΣΜΟΥ & ΑΠΩΛΕΙΑΣ ΠΕΡΙΟΥΣΙΑΣ | ΓΡΑΜΜΗ ΒΟΗΘΕΙΑΣ ΚΕΘΕΑ: 2109237777 | ΠΑΙΞΕ ΥΠΕΥΘΥΝΑ
SEAJETS Ταξιδεύουμε μαζί με το μεγαλύτερο στόλο ταχύπλοων παγκοσμίως σε 50 προορισμούς του Αιγαίου!

