{"id":1307,"date":"2024-02-22T11:13:36","date_gmt":"2024-02-22T14:13:36","guid":{"rendered":"https:\/\/www.alertapetrolina.com\/2024\/02\/22\/como-usar-chatgpt-gemini-e-outras-ias-com-seguranca\/"},"modified":"2024-02-22T11:13:36","modified_gmt":"2024-02-22T14:13:36","slug":"como-usar-chatgpt-gemini-e-outras-ias-com-seguranca","status":"publish","type":"post","link":"https:\/\/www.alertapetrolina.com\/2024\/02\/22\/como-usar-chatgpt-gemini-e-outras-ias-com-seguranca\/","title":{"rendered":"Como usar ChatGPT, Gemini e outras IAs com seguran\u00e7a"},"content":{"rendered":"
[ad_1]
\n<\/p>\n
O not\u00e1vel crescimento no ano passado de aplicativos, servi\u00e7os e plug-ins de IA parece estar \u00e0 beira de uma acelera\u00e7\u00e3o ainda maior. De aplicativos de escrit\u00f3rio a editores de imagem e ambientes de desenvolvimento integrados (IDEs), como o Visual Studio, a IA est\u00e1 sendo incorporada a ferramentas amplamente reconhecidas e usadas h\u00e1 muito tempo. Muitos desenvolvedores est\u00e3o criando milhares de novos aplicativos que utilizam modelos de IA ainda mais avan\u00e7ados.<\/p>\n
\u00a0<\/p>\n
No entanto, ningu\u00e9m ainda foi capaz de resolver os problemas de seguran\u00e7a fundamentais, minimizar os vazamentos de dados confidenciais e tamb\u00e9m o n\u00edvel de invas\u00e3o de contas\/dispositivos de v\u00e1rias ferramentas de IA, muito menos criar prote\u00e7\u00f5es adequadas contra um ataque futurista de uma \u201cIA do mal\u201d. At\u00e9 que seja proposta uma solu\u00e7\u00e3o definitiva para proteger usu\u00e1rios de assistentes de IA, voc\u00ea precisa desenvolver habilidades e buscar aux\u00edlio por conta pr\u00f3pria.<\/p>\n
\u00a0<\/p>\n
Ent\u00e3o, como usar a IA sem se arrepender depois?<\/p>\n
\u00a0<\/p>\n
Filtre dados importantes<\/strong><\/p>\n \u00a0<\/p>\n A pol\u00edtica de privacidade da OpenAI<\/a>, desenvolvedora do ChatGPT, afirma de forma clara que todas as caixas de di\u00e1logo com o chatbot s\u00e3o salvas e podem ser usadas para v\u00e1rias finalidades. Inicialmente, isso soluciona problemas t\u00e9cnicas e evita potenciais viola\u00e7\u00f5es dos termos de servi\u00e7o, em especial para evitar a produ\u00e7\u00e3o de conte\u00fado inadequado. Quem diria, n\u00e3o \u00e9 mesmo? Nesse caso, os chats podem at\u00e9 ser revisados por um humano. Em segundo lugar, os dados podem ser usados para treinar novas vers\u00f5es do GPT e fazer outras \u201cmelhorias\u201d no produto.<\/p>\n \u00a0<\/p>\n A maioria dos outros modelos de linguagem populares como o Gemini da Google, o Claude da Anthropic ou o Bing e Copilot da Microsoft, t\u00eam pol\u00edticas semelhantes: todos eles podem salvar caixas de di\u00e1logo inteiras.<\/p>\n \u00a0<\/p>\n Dito isto, vazamentos acidentais de chats\u00a0j\u00e1 ocorreram<\/a>\u00a0devido a bugs de software, com os usu\u00e1rios vendo as conversas de outras pessoas em vez das suas. O uso desses dados para treinamento tamb\u00e9m pode levar a um\u00a0vazamento de dados de um modelo pr\u00e9-treinado<\/a>: o assistente de IA pode fornecer suas informa\u00e7\u00f5es a algu\u00e9m se acreditar que elas s\u00e3o relevantes para a resposta. Os especialistas em seguran\u00e7a da informa\u00e7\u00e3o at\u00e9 projetaram v\u00e1rios ataques (um<\/a>,\u00a0dois<\/a>,\u00a0tr\u00eas<\/a>) com o objetivo de roubar caixas de di\u00e1logo, e \u00e9 improv\u00e1vel que parem por a\u00ed.<\/p>\n \u00a0<\/p>\n Portanto, lembre-se: qualquer coisa que voc\u00ea escrever para um chatbot pode ser usada contra voc\u00ea. Recomendamos tomar precau\u00e7\u00f5es ao falar com a IA.<\/p>\n \u00a0<\/p>\n N\u00e3o envie nenhum dado pessoal para um chatbot.\u00a0<\/strong>Nenhuma senha, n\u00famero de passaporte ou cart\u00e3o banc\u00e1rio, endere\u00e7os, n\u00fameros de telefone, nomes ou outros dados pessoais que perten\u00e7am a voc\u00ea, sua empresa ou seus clientes devem terminar em chats com uma IA. Voc\u00ea pode substitu\u00ed-los por asteriscos ou \u201cEDITADO\u201d em sua solicita\u00e7\u00e3o.<\/p>\n \u00a0<\/p>\n N\u00e3o carregue nenhum documento.\u00a0<\/strong>V\u00e1rios plug-ins e complementos permitem que voc\u00ea use chatbots para o processamento de documentos. Pode haver uma forte tenta\u00e7\u00e3o de carregar um documento de trabalho para, digamos, obter um resumo executivo. No entanto, ao carregar descuidadamente um documento de v\u00e1rias p\u00e1ginas, voc\u00ea corre o risco de\u00a0vazar dados confidenciais<\/a>, propriedade intelectual ou um segredo comercial, como a data de lan\u00e7amento de um novo produto ou a folha de pagamento de toda a equipe. Ou, pior do que isso, ao processar documentos recebidos de fontes externas, voc\u00ea pode ser\u00a0alvo de um ataque<\/a>\u00a0que conta com a verifica\u00e7\u00e3o do documento por um modelo de idioma.<\/p>\n \u00a0<\/p>\n Use as configura\u00e7\u00f5es de privacidade.<\/strong>\u00a0Examine cuidadosamente a pol\u00edtica de privacidade e as configura\u00e7\u00f5es dispon\u00edveis do seu fornecedor de modelos de linguagem grande (LLM). Normalmente, voc\u00ea pode usar essas configura\u00e7\u00f5es para reduzir o rastreamento. Por exemplo, os produtos OpenAI permitem desativar o salvamento do hist\u00f3rico do chat. Nesse caso, os dados ser\u00e3o removidos ap\u00f3s 30 dias e nunca ser\u00e3o usados para treinamento. Aqueles que usam API, aplicativos de terceiros ou servi\u00e7os para acessar solu\u00e7\u00f5es OpenAI t\u00eam essa configura\u00e7\u00e3o ativada por padr\u00e3o.<\/p>\n \u00a0<\/p>\n Enviando c\u00f3digos? Limpe todos os dados confidenciais.<\/strong>\u00a0Para engenheiros de software que usam assistentes de IA para revisar e aprimorar seu c\u00f3digo, \u00e9 crucial omitir quaisquer chaves de API, endere\u00e7os de servidor ou outros detalhes que possam revelar a estrutura do aplicativo ou a configura\u00e7\u00e3o do servidor.<\/p>\n \u00a0<\/p>\n Limite o uso de aplicativos e plug-ins de terceiros<\/strong><\/p>\n \u00a0<\/p>\n Siga sempre as dicas acima, seja qual for o assistente de IA popular que voc\u00ea estiver usando. No entanto, mesmo isso pode n\u00e3o ser suficiente para garantir a privacidade. O uso de plug-ins ChatGPT, extens\u00f5es Gemini ou aplicativos complementares independentes introduz novas categorias de amea\u00e7as potenciais.<\/p>\n \u00a0<\/p>\n Primeiro, o hist\u00f3rico do chat pode ser armazenado n\u00e3o apenas nos servidores do Google ou OpenAI, mas tamb\u00e9m em servidores de terceiros que disponibilizam o plug-in ou complemento, al\u00e9m de locais menos convencionais em seu computador ou smartphone.<\/p>\n \u00a0<\/p>\n Segundo, a maioria dos plug-ins extrai informa\u00e7\u00f5es de fontes externas: pesquisas na Web, sua caixa de entrada do Gmail ou notas pessoais de servi\u00e7os como Notion, Jupyter ou Evernote. Dessa forma, os dados provenientes desses servi\u00e7os podem ser armazenados nos servidores nos quais o plug-in ou o modelo de linguagem em si est\u00e1 sendo executado. Uma integra\u00e7\u00e3o como essa pode trazer riscos significativos: por exemplo, considere este\u00a0ataque que cria novos reposit\u00f3rios GitHub em nome do usu\u00e1rio<\/a>.<\/p>\n \u00a0<\/p>\n Terceiro, a publica\u00e7\u00e3o e a verifica\u00e7\u00e3o de plug-ins para assistentes de IA s\u00e3o atualmente um processo muito menos ordenado do que, digamos, a triagem de aplicativos na App Store ou no Google Play. Portanto, suas chances de encontrar um plug-in mal-intencionado, mal escrito, com erros ou at\u00e9 mesmo malicioso s\u00e3o bastante altas, j\u00e1 que parece que\u00a0ningu\u00e9m realmente verifica<\/a>\u00a0os criadores ou seus contatos.<\/p>\n \u00a0<\/p>\n Como mitigar esses riscos? Nossa dica chave aqui \u00e9 dar um tempo. O ecossistema de plug-ins \u00e9 muito jovem, os processos de publica\u00e7\u00e3o e suporte n\u00e3o s\u00e3o suaves o suficiente e os pr\u00f3prios criadores nem sempre cuidam para projetar plug-ins adequadamente ou cumprir os requisitos de seguran\u00e7a da informa\u00e7\u00e3o. Todo esse ecossistema precisa de mais tempo para amadurecer e se tornar mais seguro e confi\u00e1vel.<\/p>\n \u00a0<\/p>\n Al\u00e9m disso, o valor que muitos plug-ins e complementos adicionam \u00e0 vers\u00e3o padr\u00e3o do ChatGPT \u00e9 m\u00ednimo: pequenos ajustes na interface do usu\u00e1rio e modelos de \u201cprompt do sistema\u201d que personalizam o assistente para uma tarefa espec\u00edfica (\u201cAgir como um professor de f\u00edsica do ensino m\u00e9dio\u2026\u201d). Certamente n\u00e3o vale a pena confiar seus dados a esses wrappers, pois \u00e9 poss\u00edvel realizar a tarefa muito bem sem eles.<\/p>\n \u00a0<\/p>\n Se, eventualmente, voc\u00ea precisar de determinados recursos de algum plug-in, tente tomar o m\u00e1ximo de precau\u00e7\u00f5es dispon\u00edveis antes de us\u00e1-los.<\/p>\n \u00a0<\/p>\n \u00a0<\/p>\n Os plug-ins de execu\u00e7\u00e3o exigem monitoramento especial<\/strong><\/p>\n \u00a0<\/p>\n At\u00e9 agora, discutimos os riscos relacionados a vazamentos de dados: mas esse n\u00e3o \u00e9 o \u00fanico problema potencial ao usar a IA. Muitos plug-ins s\u00e3o capazes de executar a\u00e7\u00f5es espec\u00edficas conforme o comando do usu\u00e1rio, como solicitar passagens a\u00e9reas. Essas ferramentas fornecem aos agentes maliciosos um novo vetor de ataque: a v\u00edtima recebe um documento, p\u00e1gina da Web, v\u00eddeo ou at\u00e9 mesmo uma imagem que cont\u00e9m instru\u00e7\u00f5es ocultas para o modelo de idioma, al\u00e9m do conte\u00fado principal. Se a v\u00edtima alimentar o documento ou o link para um chatbot, este \u00faltimo executar\u00e1 as instru\u00e7\u00f5es maliciosas, por exemplo, comprando ingressos com o dinheiro da v\u00edtima. Esse tipo de ataque \u00e9 conhecido como\u00a0inje\u00e7\u00e3o imediata<\/a>\u00a0e, embora os desenvolvedores de v\u00e1rios LLMs estejam tentando desenvolver uma prote\u00e7\u00e3o contra essa amea\u00e7a, ningu\u00e9m ainda conseguiu e talvez nunca consiga.<\/p>\n \u00a0<\/p>\n Felizmente, as a\u00e7\u00f5es mais significativas, especialmente aquelas que envolvem transa\u00e7\u00f5es de pagamento, como a compra de ingressos, exigem uma confirma\u00e7\u00e3o dupla. No entanto, as intera\u00e7\u00f5es entre os modelos de linguagem e os plug-ins criam uma\u00a0superf\u00edcie de ataque<\/a> t\u00e3o grande que \u00e9 dif\u00edcil garantir resultados consistentes dessas medidas. Portanto, \u00e9 necess\u00e1rio ser minucioso ao selecionar ferramentas de IA e tamb\u00e9m garantir que elas recebam apenas dados confi\u00e1veis para processamento.<\/p>\n<\/p><\/div>\n\n