Da necessidade da criação da Política de Uso da IA no ambiente corporativo

No mundo dos negócios, a inteligência artificial (IA) tem sido adotada com crescente frequência. Desde o lançamento do ChatGPT (plataforma de IA generativa) em novembro de 2022 (versão GPT-3), a inteligência artificial ganhou destaque global. Utilizando um dos maiores bancos de dados do mundo, essa tecnologia avançou velozmente em curto período, facilitando o acesso à informação, a automatização de processos, traduções, resumos e até conversação humanizada. Entretanto, todo esse avanço tecnológico rapidamente trouxe novas preocupações no mundo legal e corporativo. Atualmente, a inteligência artificial desenvolvida pela plataforma ChatGPT se destaca como uma das mais robustas e amplamente utilizadas — sendo o Brasil o quarto país no mundo com maior usabilidade da plataforma —, beneficiando-se da vasta quantidade de informações em seu banco de dados e da acessibilidade gratuita de sua versão mais básica. Com o aumento da acessibilidade das ferramentas de IA generativa ao público, observamos sua rápida integração em diversos campos e indústrias. Esse cenário tem destacado a urgência para a necessidade de criação de políticas que capacitem os profissionais para a aplicação responsável e profissional dessa tecnologia. Políticas de IA no ambiente de trabalho Ciente da capacidade de automatizar processos complexos, analisar grandes volumes de dados e oferecer percepções preditivas, a IA está redefinindo estratégias e operações corporativas. Nesse contexto, um tema ainda pouco discutido de maneira transparente nas empresas é a regulamentação do uso de IA no ambiente de trabalho. Por isso, à medida que as empresas, representadas pelos seus funcionários, adotam a utilização dessa tecnologia, torna-se essencial estabelecer políticas de IA consistentes, conhecidas como “AI policy”. Vale destacar que há uma corrente que defende a proibição total do uso da IA no ambiente corporativo, considerando os riscos do vazamento de informações e a preservação pela autenticidade do trabalho. Do outro lado, há uma defesa do emprego da AI com uma abordagem mais flexível, refletindo possivelmente as tendências sociais, sustentando o uso moderado, transparente e confiável. Independente do posicionamento, é imprescindível a regulamentação da exploração da IA, à medida que sua aplicação se torna cada vez mais inevitável. Contudo, essas orientações não apenas definem as diretrizes éticas para o uso da IA, mas também garantem a sua conformidade com as normas, além de fortalecerem a confiança com clientes e investidores. De modo geral, é tecnologicamente inviável garantir o controle e monitoramento do uso da IA, mas a ausência de regras sobre sua exploração é ainda mais arriscada e comprometedora. Critérios e requisitos A política de diretrizes do uso de IA deve estabelecer claramente os tipos de inteligência artificial permitidos na organização, proibir aplicativos específicos e definir quais informações podem ser compartilhadas com terceiros, sendo este último ponto crucial em sua gestão. Uma alternativa viável que tem sido adotada é o desenvolvimento de uma plataforma exclusiva, dentro da própria empresa ou organização. Um exemplo recente é o “ChatTCU”, criado pelo Tribunal de Contas da União para a utilização de todos os servidores e funcionários, que utiliza informações e documentos relevantes ao trabalho do tribunal (como relatórios, decisões, jurisprudências, normas, entre outros dados parte do domínio público e específico de atuação do TCU). Assim, além de uma ferramenta própria, que também possui os seus riscos, como podemos prever o uso seguro e ético dessa ferramenta dentro do contexto corporativo? Embora ainda não haja regulamentações específicas sobre essa tecnologia no Brasil, diversas empresas e setores estão estabelecendo suas próprias normas e diretrizes. Em suma, a existência de um AI policy, (política de inteligência artificial), é indispensável, e deve abordar uma série de aspectos relevantes para garantir o tratamento ético, seguro e eficaz da inteligência artificial em uma organização. Inicialmente, destacamos alguns elementos principais que uma AI policy deve incluir: Efeitos Um exemplo recente dos impactos da ausência de AI policy bem estruturado ocorreu em uma das maiores empresas de tecnologia do mundo. No início do ano passado, a Samsung – empresa sul –coreana de tecnologia – determinou a proibição do uso de ferramentas de inteligência artificial generativa após descobrir que um membro de sua equipe havia inserido um código confidencial da companhia na plataforma. Esse incidente trouxe graves problemas na integridade e segurança dos dados da empresa, o que ocasionou na divulgação de informações confidenciais. Uma vez inseridos dados sigilosos em sistemas como o ChatGPT, há desafios técnicos significativos na garantia de sua exclusão completa. A supressão dessas informações inseridas, mesmo que por uma decisão judicial, ainda não tem como ser completamente garantida. Em suma, a existência de um AI policy robusta não apenas direciona a sua utilização, como ajuda a mitigar riscos associados à exploração dessa tecnologia, além de auxiliar na contribuição de um ambiente de trabalho mais protegido, que observa os avanços tecnológicos, mas busca controlar o uso efetivo. Urgência Não obstante, outro fator que sublinha a necessidade da existência de política de orientações sobre a exploração da IA dentro das empresas é o Projeto de Lei 2.238/2023, atualmente em tramitação no Brasil, que visa regulamentar a utilização da inteligência artificial no país. Esse projeto prevê requisitos indispensáveis como o da transparência, exigindo que fornecedores e operadores informem os usuários sobre a aplicação da IA e adotem medidas para evitar discriminação, garantindo a conformidade com as normas vigentes. Com base nos pontos abordados, resta evidente que a adoção crescente da inteligência artificial generativa no mundo dos negócios e em outros setores requer políticas eficazes para orientar seu uso responsável. O desenvolvimento dessas diretrizes é crucial não apenas para atender às demandas atuais, mas também para preparar as empresas para os desafios e oportunidades futuras que a IA trará. Fonte: Consultor Jurídico
MEC: Debatedores criticam novas diretrizes na educação infantil

Comissão debateu política de alfabetização do atual governo e investimentos na educação infantil Em audiência sobre investimento em educação infantil e alfabetização, na Comissão de Educação da Câmara dos Deputados, participantes reclamaram das novas diretrizes do Ministério da Educação para o ensino infantil e o básico. De acordo com Ilona Becskeházy, que foi secretária de Educação Básica do MEC durante o governo Bolsonaro, a antiga Política Nacional de Alfabetização foi “derrubada sem nenhuma justificativa”. A ex-secretária sustentou que a Política Nacional de Alfabetização foi construída “com respaldo técnico”. Segundo disse, as diretrizes da educação infantil se baseavam em categorias fundamentais ao processo de alfabetização, como consciência fonêmica, fluência em leitura oral, desenvolvimento de vocabulário, compreensão de textos e produção escrita. “A Política Nacional de Alfabetização tinha um desenho extremamente claro, o que hoje esse compromisso não tem”, opinou. “Ficava claro o que deveria ser feito.” Ela diz que o compromisso atual é uma “lista de pedaços de normativos que já existiam” e não traz nada de novo em relação à alfabetização. Na gestão atual do Ministério da Educação, a política anterior foi substituída pelo Compromisso Nacional Criança Alfabetizada. Conforme o atual diretor de Formação Docente e Valorização dos Profissionais da Educação do MEC, Lourival José Martins Filho, o compromisso reconhece o direito à alfabetização até o segundo ano do ensino fundamental. Esse ponto foi criticado pelos debatedores. De acordo com o presidente do Instituto Alfa e Beto, João Batista Araújo e Oliveira, “no mundo inteiro é consenso” que o aluno deve estar alfabetizado no final do primeiro ano escolar. “O que não conseguir, é erro de processo, tem de correr atrás”, disse. Ilona Becskeházy também sustentou que alunos sem problemas cognitivos têm de estar alfabetizados no primeiro ano. Segundo afirma, toda a desigualdade social observada no Brasil decorre de o País não conseguir alfabetizar as crianças na idade adequada. Lourival José Martins Filho rebateu que, apesar dos alegados avanços científicos da extinta Política Nacional de Alfabetização, mais de 180 grupos de pesquisa do País encaminharam documento solicitando a revogação da antiga norma. Lourival Filho também ressaltou que a adesão dos estados e municípios às novas diretrizes para a educação infantil é voluntária, e todos podem continuar a utilizar os critérios da antiga política. Ainda assim, 5.558 municípios já aderiram ao Compromisso Nacional Criança Alfabetizada. A gerente de Políticas Públicas da Fundação Maria Cecília Souto Vidigal, Karina Fasson, ressaltou que uma educação infantil de qualidade, além de construir bases sólidas para o restante do processo educacional, tem consequências também para o País. Karina Fasson ressaltou que pessoas que recebem educação de qualidade na primeira infância têm aprendizado três vezes melhor nas etapas posteriores. Além disso, esses indivíduos conseguem inserção melhor no mercado de trabalho e recebem salários 36% melhores, em média. Ela afirmou ainda que uma educação infantil de qualidade significaria redução da criminalidade em 50% e diminuição dos gastos com saúde. O debate foi realizado a pedido da deputada Adriana Ventura (Novo-SP), que recolheu entre os especialistas convidados sugestões de debates e de ações da Comissão de Educação, como retomar o GT da Alfabetização e atuar na fiscalização da descontinuidade de programas, por exemplo. Fonte: Agência Câmara de Notícias