
Num Estudo Publicado no dia 15 De Maio por Investigadorores da Universidade Ben Gurion, Em Israel, FOI Revelado que um Maioria dos Chatbots de Ia Podem ser facilmente enganados para fornecer informações perigosas, uma vez que instrutões “ “ “ “ ” Uma investigação Mostrou que, com uma utilização das Chamadas Técnicas de “Jailbreak”, é Provável Contornar uma vez que Barreiiras de Segurança Destes Sistemas e Aquiescer a Conteúias que Deveriam Estar Bloqueados. Chatbots uma vez que o chatgpt, gemini e claude são treinados com grandes volumes de teor da internet. Mesmo com tentativas de filtrar textos nocivos, essas ia acabam por aspirar dados relationados com crimes, fraudes uma vez que, invasões digitais e até fabro de armas. Quando desbloqueados, esses sistemas deixam de obedecer a filtros de segurança e passam um respondente uma pérgunta prática de qualquer, consideração sem Risco Envolvido. De Contrato com os Autores do Estudo, um Ameaço é real, imediata e pré -ocunto. O Maior Risco Vem dos Chamados “Dark Llm”, Modelos de ia que Já Estão A Ser Criados Sem Quaisquer Limites Éticos. Estão a ser divulgados Livremente na Internet Uma vez que Ferreioss Abertas Um Qualquer Tipo de Utilizaça, inclluindo criminosa. Mesmo depois de avisados, os grandes crídores de ia ignoram o aviso ou dissseram que nascente Tipo de Ataque não se enquadra nos programas de recompensa por falhas, segundo os autores do Relatório publicado na plataforma -científica arx. Os peses os itens de Defendem mais investimentos em segurança e acções para “Desensinar” Conteússos Perigosos aos chatbots. Ó alerta é que, se zero para feito, o acesse uma secção tipo de conhecimento pode-se terno tão fáccil perdo transfixar um aplicativa no telemóvel. Nascente: Canaltech