Categorias
Ciência de Dados Portifólio

6 etapas para a construção do seu portfólio de Data Science

Você já possui ou está iniciando um portfólio de projetos em Data Science? Com um portfólio, o profissional se mostra presente e atuante na comunidade global de cientista de dados e também faz uso de mais uma ferramenta que mostra ao mercado suas habilidades na área.

Muitas vezes na construção do portfólio, surgem dúvidas sobre como organizar o processo de desenvolvimento dos projetos. Essas dúvidas são bem vindas, mostram o seu planejamento e a busca para tornar seu trabalho mais consistente e coerente, um trabalho com sentido e direção. 

Para te ajudar, hoje vamos apresentar e esclarecer 6 etapas para fortalecer seu portfólio de Ciência de Dados

Antes do tópico 1, precisamos relembrar de uma característica que todo cientista de dados deve ter: paixão pela área! Sim, a Ciência de Dados é uma área fascinante, com estudos de impacto inquestionável nos mais diferentes âmbitos e com profissionais muito valorizados, mas, sendo a conjunção entre Matemática, Estatística e Computação, é uma ciência complexa e que exige dedicação e estudo constantes. Se o amor pela área você já tem, pode seguir a leitura.

 

1. Definição do Problema

O passo inicial do seu projeto deve ser a  boa definição do problema a ser resolvido e, assim, traçar a melhor estratégia para solucioná-lo. Você deve esquadrinhar o problema selecionado para definir as técnicas estatísticas e de machine learning que serão empregadas, sempre guiando seu processo pela questão: qual o valor e impacto do que eu estou fazendo?

A escolha do conjunto de dados a ser usado é também um ponto da fase de definição do problema. No Kaggle, por exemplo, existem diversos projetos e datasets que podem ser utilizados como base para seu projeto. Veja a lista de sites para baixar dados gratuitamente que nós criamos:

 

Entretanto, na indústria, muitas vezes um dos grandes desafios do cientista de dados é exatamente converter um problema de negócios em um problema de ciência de dados. Nesse sentido, algo interessante a se fazer é, em vez de utilizar algum problema ou dataset já existentes, definir seu próprio problema e, consequentemente, construir seu próprio banco de dados. Apesar de gastar algum tempo coletando os dados, essa etapa te ajudará a pensar na melhor maneira de coletar e reunir informações, e você estará aprendendo uma parte que nem sempre é ensinada na escola.

Claro que este último ponto não é obrigatório, mas é interessante realizá-lo porque te ajudará a explicar melhor aos outros seu pensamento estratégico ao enfrentar um problema.

 

2. Limpeza dos Dados 

O segundo passo deve ser a limpeza dos dados. Essa é uma parte que toma um tempo substancial do processo. Nessa etapa, datasets são unidos, são detectadas anomalias (por exemplo, “1”, “2”, “sol”), valores faltantes são identificados e imputados. A limpeza dos dados remove os principais erros e inconsistências no conjunto de dados e garante que os dados estejam prontos para análise.

 

3. Análise Exploratória dos Dados

Com a limpeza dos dados feita, o próximo passo é analisar. Essa é uma etapa extremamente importante porque lhe permite entender seus dados e fazer descobertas. Frequentemente, uma boa análise descritiva permite formular hipóteses e questões relevantes, utilizando medidas estatísticas (média, variância, correlação) e visualização (histogramas, box plots, gráficos de dispersão). Nesta parte, você:

(a) saberá a natureza de cada variável (qualitativa ou quantitativa);

(b) saberá qual a distribuição de cada uma;

(c) descobrirá se existem e quem são os outliers;

(d) identificará a relação entre as variáveis.

Muito mais pode ser feito durante este momento do processo. O essencial é mostrar sua capacidade em buscar e identificar nos dados coisas que outras pessoas podem não ter percebido, e tornar os modelos ajustados posteriormente ainda melhores.

4. Visualização Interativa dos Dados

Use gráficos apropriados para cada tipo de variável. Tente apresentar gráficos que capturem os olhos, mas que sejam simples e compreensíveis.  Visualizações interativas incluem ferramentas como dashboards, que são uma maneira rápida e fácil de interagir com os dados.  Uma boa visualização permite comunicar de forma clara o que há nos dados e o leva a ter insights adicionais.

Neste ponto você irá literalmente desenhar o que há nos dados.

 

5. Machine Learning

A aplicação de modelos estatísticos e machine learning é um ponto imprescindível na criação do seu portfólio. Inicialmente, não precisa ser algo muito complexo. Você pode escolher um modelo mais simples, como regressão linear e logística que são mais fáceis de ajustar e interpretar. Eles podem servir como uma base para avaliar seus próximos modelos.

Em seguida, crie um modelo baseado em machine learning, descreva como foi a escolha, compare com aqueles mais simples, ajustados anteriormente, e veja quais os problemas com seu último ajuste. Construa um segundo modelo de machine learning. Explique, nesta etapa, por que ele é melhor do que o anterior. O primeiro  não estava bem ajustado, você precisava de um modelo menos complexo ou necessitava adicionar algo, como regularização. 

Utilize métodos para seleção de modelos, avalie, por exemplo, a acurácia e a capacidade de previsão do seu ajuste. Repita a última etapa até se sentir confortável com os resultados obtidos. No final, seu portfólio terá além de um bom modelo, uma linha do tempo lógica explicando o processo de pensamento e como chegou ao modelo final.

6. Comunicação

A parte final do seu projeto, e que faz toda a diferença, é a comunicação. Você pode construir ótimos modelos, mas se você não for capaz de explicá-los de forma clara e objetiva para os demais, boa parte do seu trabalho pode ser perdida. Com os passos anteriores feitos, você contará uma história.

Great data scientists are great storytellers”.

Em primeiro lugar, saiba quem é o seu público, explique o que fez de forma clara e em termos simples. Escreva sobre o objetivo do projeto, apresente as principais análises exploratórias, elucide os resultados e impactos da modelagem, e diga o porquê seu projeto tem valor. Você não precisa incluir seu código, mas indiscutivelmente vincule-o ao GitHub.

 

Aprofunde-se

Essas foram as etapas selecionadas para te ajudar no direcionamento e construção do seu portfólio. E para que você se sinta ainda mais inspirado, conheça estes dois excelentes projetos em Ciência de Dados:

  1. Os projetos criados pelos estudantes de Stanford na turma de Machine Learning. Aqui, você encontra projetos de caráter acadêmico, mas com excelentes explicações sobre as soluções aplicadas ao problemas de Machine Learning
  2. Classificador de Lego usando TensorFlow no Raspberry Pi. Aqui, o autor do projeto explica detalhadamente o processo de criação do seu classificador de lego.

 

Aproveita a sessão de comentários e conte como tem sido seu processo de desenvolvimento de projetos para o portfólio.

Até mais!

 

 

 

Categorias
Ciência de Dados Programação trabalho Vagas Vagas Encerradas

Trabalhe como Desenvolvedor Full Stack no Insight Lab

Olá! Iniciamos hoje o processo de seleção para a vaga de Desenvolvedor Full Stack Pleno, que será responsável por atuar no desenvolvimento de aplicações web e desenvolver soluções inovadoras.

 

Competências obrigatórias: Python,  Docker, Shell Script, Jupyter Notebook, PostgreSQL, Conda, Git,  Javascript, HTML, CSS, Linux e Inglês.

Competências desejáveis: Kubernetes, Data Lake, Big Data, Django, Scala, Java, Spring Boot, MongoDB, Redis, Play Framework e Lagom Framework.

 

Carga Horária 

40 horas semanais.

 

Modalidade de contratação

CLT 

 

Local de exercício das atividades

O candidato atuará em nossa sede em Fortaleza-CE. No entanto, pela necessidade de distanciamento social imposta pela pandemia de Covid-19, durante o período inicial o candidato desenvolverá suas atividades remotamente.

 

Etapas da seleção

– Envio das respostas do desafio e preenchimento do formulário de inscrição: 14/08 a 28/08

– Entrevistas: 01/09 a 04/09

– Divulgação do Resultado: 07/09

 

Desafio e Formulário

Deseja preencher esta vaga? Então, solucione o desafio e depois acesse o formulário para registrar seus dados e enviar seu currículo. 

 

Clique aqui para acessar o documento com mais especificações e esclarecimentos sobre a vaga de Desenvolvedor Full Stack.

Boa sorte e continue acompanhando o Insight Lab para receber todas as nossas novas publicações.

 

Categorias
Dica de Leitura Machine Learning Não categorizado Python

Dica de leitura: Python Machine Learning 3ª Edição

O livro Python Machine Learning, 3ª edição é um guia abrangente de Machine Learning e Deep Learning com Python. De forma didática, o livro ensina todos os passos necessários servindo como leitura de referência enquanto você cria seus sistemas. Contendo explicações claras e exemplos, o livro inclui todas as técnicas essenciais de Machine Learning (ML).

Neste livro os autores Sebastian Raschka e Vahid Mirjalili ensinam os princípios por trás do ML, permitindo que você construa seus próprios modelos e aplicativos.

Revisado e ampliado para conter TensorFlow 2.0, esta nova edição apresenta aos leitores os novos recursos da API Keras, bem como as últimas adições ao scikit-learn. Ele contém ainda, técnicas de aprendizado por reforço de última geração com base em aprendizado profundo, e uma introdução aos GANs.

Outro conteúdo importante que esta obra traz é o subcampo de Natural Language Processing (NLP), esta obra também te ajudará a aprender como usar algoritmos de Machine Learning para classificar documentos.

 

Você aprenderá a:
  • Dominar as estruturas, modelos e técnicas que permitem que as máquinas “aprendam” com os dados;
  • Usar biblioteca scikit-learn para Machine Learning e TensorFlow para Deep Learning;
  • Aplicar Machine Learning à classificação de imagens, análise de sentimento, aplicativos inteligentes da Web e treinar redes neurais, GANs e outros modelos;
  • Descobrir as melhores práticas para avaliar e ajustar modelos;
  • Prever resultados de destino contínuos usando análise de regressão;
  • Aprofundar-se em dados textuais e de mídia social usando análise de sentimento

 

Para quem é este livro

Iniciante em Python e interessado em Machine Learning e Deep Learning, este livro é para você que deseja começar do zero ou ampliar seu conhecimento de ML.  Direcionado a desenvolvedores e cientistas de dados que desejam ensinar computadores a aprenderem com dados.

 

Aproveite a leitura

O livro Python Machine Learning poderá ser seu companheiro nos estudos, seja você um desenvolvedor Python iniciante em ML ou apenas alguém que queira aprofundar seu conhecimento sobre os desenvolvimentos mais recentes.

 

Bons estudos!

Categorias
Bolsas DevOps Vagas Encerradas

Vagas para alunos de graduação no Projeto de Transformação Digital do Governo do Ceará

O Insight sabe bem como começar uma semana e nesta, trazemos mais vagas para o projeto de digitalização dos serviços públicos. As vagas disponíveis, desta vez, são para bolsistas alunos de graduação: Desenvolvedor Full Stack, Desenvolvedor Front-end e Desenvolvedor Mobile.

 

Vagas ofertadas

 

Desenvolvedor Full Stack

 

Responsável por atuar no desenvolvimento de aplicações web e desenvolver soluções inovadoras.

Habilidades em Javascript, HTML, CSS, Java, Spring Boot, Git, Gitlab, Python, PostgreSQL e MongoDB

Desejável habilidades em Django, Docker, Redis, Scala, Play Framework e Lagom Framework.

 

Desenvolvedor Front-end

Responsável por atuar no desenvolvimento de aplicações web e desenvolver soluções inovadoras.

Habilidades em Javascript, Typescript, HTML, CSS, React Js, Git e Gitlab.

Desejável habilidades em Node Js, MongoDB, Firebase e Spring Boot.

 

Desenvolvedor Mobile

Responsável por atuar no desenvolvimento de aplicações móveis e desenvolver soluções inovadoras.

Habilidades em React native, Git, Gitlab, Firebase, Java e Spring Boot.

Desejável habilidades em React native, Git, Gitlab, Firebase, Java e Spring Boot

 

Modalidade de Contratação

Bolsa FUNCAP graduação.

 

Carga Horária

20 horas semanais.

 

Local de exercício das atividades presenciais

Fortaleza e Quixadá. O candidato deverá escolher o local de exercício no preenchimento do formulário.

 

Etapas da seleção 

Envio do desafio e formulário: 12/08 a 17/08 

Entrevistas a partir do dia: 18/08 

Resultado: 25/08

 

Duração do projeto

29 meses

 

Formulário

Acesse o formulário para registrar seus dados, enviar seu currículo e solucionar o desafio. Você será desclassificado se não enviar o desafio. O candidato deverá enviá-lo mesmo que não esteja concluído.

Os links para os desafios de cada modalidade de vaga estão no formulário.

                                                —————-

Boa sorte e continuem acompanhando nossas redes sociais para mais avisos.

 

 

Categorias
Pandas Programação Python

6 truques do Pandas para impulsionar sua análise de dados

O Pandas é uma das melhores bibliotecas Python para análise de dados. Esta biblioteca open source oferece estrutura de dados de alto nível com um excelente desempenho para simplificar tarefas complicadas de manipulação de dados. Sua grande variedade de ferramentas possibilita traduzir operações complexas com dados em um ou dois comandos, além de possuir métodos internos para agrupar, filtrar e combinar dados.

 

Conheça agora, os seis truques mais úteis dos Pandas para acelerar sua análise de dados.

 

  1. Selecionar colunas por tipo de dados;
  2. Converter cadeias de caracteres em números;
  3. Detectar e manipular valores ausentes;
  4. Converter um recurso numérico contínuo em um recurso categórico;
  5. Criar um DataFrame a partir da área de transferência;
  6. Construir um DataFrame a partir de vários arquivos.

Confira aqui o repositório no Github para obter o código-fonte.

 

1. Selecione colunas por tipos de dados

Aqui estão os tipos de dados do DataFrame Titanic:

df.dtypes

 

PassengerId int64

Survived int64

Pclass int64

Name object

Sex object

Age float64

SibSp int64

Parch int64

Ticket object

Fare float64

Cabin object

Embarked object

dtype: object

 

Digamos que você precise selecionar as colunas numéricas.

df.select_dtypes(include='number').head()

 

Isso inclui as colunas int e float. Você também pode usar esse método para:

 

  • selecionar apenas colunas de objeto;
  • selecionar vários tipos de dados;
  • excluir certos tipos de dados.

 

# select just object columns

df.select_dtypes(include='object')

 

# select multiple data types

df.select_dtypes(include=['int', 'datetime', 'object'])

 

# exclude certain data types

df.select_dtypes(exclude='int')

 

2. Converta sequências de caracteres em números

 

Existem dois métodos para converter uma string em números no Pandas:

  • O método astype()
  • O método to_numeric()

Vamos criar um exemplo de DataFrame para ver a diferença.

df = pd.DataFrame({ 'product': ['A','B','C','D'],

                 'price': ['10','20','30','40'], 

                'sales': ['20','-','60','-'] 

                })

 

 

As colunas de price e sales são armazenadas como uma cadeia de caracteres e, portanto, resultam em colunas de objeto:

df.dtypes

 

product    object

price      object

sales      object

dtype: object

 

Podemos usar o primeiro método astype()para realizar a conversão na coluna de price da seguinte maneira:

 

# Use Python type

df['price'] = df['price'].astype(int)

 

# alternatively, pass { col: dtype }

df = df.astype({'price': 'int'})

 

No entanto, isso resultaria em um erro se tentássemos usá-lo na coluna de sales. Para consertar isso, podemos usar to_numeric() com o argumento errors='coerce'.

 

df['sales'] = pd.to_numeric(df['sales'], errors='coerce')

 

Agora, valores inválidos são convertidos para  NaN e o tipo de dado é float.

 

3. Detectar e manipular valores ausentes

Uma maneira de detectar valores ausentes é usar o método info(). Veja na coluna Non-Null Count.

df.info()

 

RangeIndex: 891 entries, 0 to 890

Data columns (total 12 columns):

#   Column       Non-Null Count  Dtype 

---  ------       --------------  ----- 

0   PassengerId  891 non-null    int64 

1   Survived     891 non-null    int64 

2   Pclass       891 non-null    int64 

3   Name         891 non-null    object

4   Sex          891 non-null    object

5   Age          714 non-null    float64

6   SibSp        891 non-null    int64 

7   Parch        891 non-null    int64 

8   Ticket       891 non-null    object

9   Fare         891 non-null    float64

10  Cabin        204 non-null    object

11  Embarked     889 non-null    object

dtypes: float64(2), int64(5), object(5)

memory usage: 83.7+ KB

 

Quando o conjunto de dados é grande, podemos contar o número de valores ausentes. df.isnull().sum() retorna o número de valores ausentes para cada coluna.

 

df.isnull().sum()

 

PassengerId      0

Survived         0

Pclass           0

Name             0

Sex              0

Age            177

SibSp            0

Parch            0

Ticket           0

Fare             0

Cabin          687

Embarked         2

dtype: int64

 

df.isnull().sum().sum() retorna o número total de valores ausentes.

 

df.isnull().sum().sum()

 

886

 

Além disso, também podemos descobrir a porcentagem de valores que estão faltando, executando: df.isna().mean()

 

PassengerId    0.000000

Survived       0.000000

Pclass         0.000000

Name           0.000000

Sex            0.000000

Age            0.198653

SibSp          0.000000

Parch          0.000000

Ticket         0.000000

Fare           0.000000

Cabin          0.771044

Embarked       0.002245

dtype: float64

 

Eliminando valores ausentes

 

Para descartar linhas se houver algum valor NaN:

df.dropna(axis = 0)

Para descartar colunas se houver algum valor NaN:

df.dropna(axis = 1)

Para descartar colunas nas quais mais de 10% dos valores estão ausentes:

df.dropna(thresh=len(df)*0.9, axis=1)

 

Substituindo valores ausentes

 

Para substituir todos os valores de NaN por um escalar:

df.fillna(value=10)

Para substituir os valores de NaN pelos valores da linha anterior:

df.fillna(axis=0, method='ffill')

Para substituir os valores de NaN pelos valores da coluna anterior:

df.fillna(axis=1, method='ffill')

Você também pode substituir os valores de NaN pelos valores da próxima linha ou coluna:

# Replace with the values in the next row

df.fillna(axis=0, method='bfill')

# Replace with the values in the next column

df.fillna(axis=1, method='bfill')

 

A outra substituição comum é trocar os valores de NaN pela média. Por exemplo, para substituir os valores de NaN na coluna Idade pela média.

 

df['Age'].fillna(value=df['Age'].mean(), inplace=True)

 

4. Converta um recurso numérico contínuo em um recurso categórico

 

Na etapa de preparação dos dados, é bastante comum combinar ou transformar recursos existentes para criar outro mais útil. Uma das maneiras mais populares é criar um recurso categórico a partir de um recurso numérico contínuo.

 

Observe a coluna Age do dataset do Titanic:

 

df['Age'].head(8)

 

0    22.0

1    38.0

2    26.0

3    35.0

4    35.0

5     NaN

6    54.0

7     2.0

Name: Age, dtype: float64

 

Age é um atributo numérico contínuo, mas se você desejar convertê-la em um atributo categórico, por exemplo, converta as idades em grupos de faixas etárias: ≤12, Teen (≤18), Adult (≤60) e Older (>60).

 

A melhor maneira de fazer isso é usando a função Pandas cut():

 

import sys

 

df['ageGroup']=pd.cut(

   df['Age'],

   bins=[0, 13, 19, 61, sys.maxsize],

   labels=['<12', 'Teen', 'Adult', 'Older']

)

 

Usar a função head(),na coluna age Group, deverá exibir as informações da coluna.

df['ageGroup'].head(8)

 

0    Adult

1    Adult

2    Adult

3    Adult

4    Adult

5      NaN

6    Adult

7      <12

Name: ageGroup, dtype: category

Categories (4, object): [<12 < Teen < Adult < Older]

 

5. Crie um DataFrame a partir da área de transferência

 

A função Pandas read_clipboard() é uma maneira muito útil de inserir dados em um DataFrame de forma rápida..

Suponha que tenhamos os seguintes dados e desejemos criar um DataFrame a partir dele:

 

    product   price

0    A         10

1    B         20

2    C         30

4    D         40

 

Só precisamos selecionar os dados e copiá-los para a área de transferência. Então, podemos usar a função para ler um DataFrame.

 

df = pd.read_clipboard ()

df

 

6. Crie um DataFrame a partir de vários arquivos

Seu dataset pode se espalhar por vários arquivos, mas você pode querer lê-lo em um único DataFrame.

Uma maneira de fazer isso é ler cada arquivo em seu próprio DataFrame, combiná-los e excluir o DataFrame original. Porém, isso seria ineficiente em memória.

Uma solução melhor é usar o módulo interno glob  (graças aos truques do Data School Pandas).

 

Neste caso, glob() estará procurando no diretório de dados, todos os arquivos CSV que começam com a palavra ” data_row_ “. O glob()recupera nomes de arquivos em uma ordem arbitrária, e é por isso que classificamos a lista usando a função sort().

 

Para dados em linha

Digamos que nosso dataset esteja distribuído por 2 arquivos em linhas: data_row_1.csv e data_row_2.csv.

 

Para criar um DataFrame a partir dos 2 arquivos:

 

files = sorted(glob('data/data_row_*.csv'))

pd.concat((pd.read_csv(file) for file in files), ignore_index=True)

 

sorted(glob('data/data_row_*.csv')) recupera nomes de arquivos. Depois disso, lemos cada um dos arquivos usando read_csv()e passamos os resultados para a função concat(), que conectará as linhas em um único DataFrame. Além disso, para evitar um valor duplicado no índice, dizemos ao concat()que ignore o index (ignore_index=True) e, em vez disso, use o índice inteiro padrão.

 

 

Para dados em colunas

Digamos que nosso dataset esteja distribuído em 2 arquivos em colunas: data_col_1.csv e data_col_2.csv.

 

Para criar um DataFrame a partir dos 2 arquivos:

files = sorted(glob('data/data_col_*.csv'))

pd.concat((pd.read_csv(file) for file in files), axis=1)

Desta vez, dizemos à função concat() para conectar ao longo do eixo das colunas.

————-

Isso é tudo!

Obrigada pela leitura e continue acompanhando nossos postagens em Data Science.

 

Texto original: B. Chen

 

 

Categorias
Transformação Digital Webinar

Webinar: Transformação Digital no Governo do Ceará

O webinar desta quinta-feira, 06/08, irá abordar o projeto de Transformação Digital no Governo do Ceará. O objetivo é fomentar pesquisas que possam viabilizar a melhoria de serviços das secretarias do governo do estado, através da sua digitalização e proporcionar aos cidadãos mais qualidade de vida com a simplificação de processos.

Com este projeto em vigência, o Insight Lab pretende apoiar pesquisas de ponta em Ciência da Computação, Estatística e áreas relacionadas, mas que principalmente, contemplem o tema de inteligência computacional em Big Data na digitalização dos serviços públicos.

O projeto de Pesquisa, Desenvolvimento e Inovação da Transformação Digital do Estado do Ceará é uma parceria entre o Insight Lab, o Laboratório ÍRIS e a FUNCAP.

 

Vagas

Além de esclarecimentos sobre o projeto com vagas vigentes no edital 02/2020, que terá início agora em 10 de agosto, o webinar também irá tratar sobre as novas vagas para bolsistas e contratações em regime de CLT. 

 

Palestrantes

Davi Romero Pesquisador do Insight lab e professor  da UFC

José Macêdo Coordenador do Insight Lab, Cientista-chefe de Dados do Governo do CE e professor da UFC

Marianna Ferreira Gestora negocial do Insight Lab

Regis Pires Coordenador de capacitação do Insight Lab, cientista de dados do Íris e professor da UFC.

Ticiana Vasconcelos Coordenadora de pesquisa do Insight Lab, cientista de dados do Íris e professora da UFC.

 

Agenda

É nesta quinta-feira, 06/08 às 15h.

Transmissão pelo canal do Insight Lab no YouTube. Acesse o link e ative o lembrete. 

Participe!

Categorias
Pesquisa trabalho Vagas Vagas Encerradas

Novas Vagas Para o Projeto de Aceleração da Transformação Digital no Ceará

A semana ainda está no começo e já temos, de novo, ótimas novidades! O Insight está lançando mais oportunidades para quem deseja colaborar no nosso novo projeto, e desta vez, haverá contratações para bolsistas graduados e também em regime CLT – Consolidação das Leis do Trabalho.

As vagas são para os projetos de Pesquisa. Desenvolvimento e Inovação da Transformação Digital do Estado do Ceará. Uma parceria entre o Insight Lab, o Laboratório ÍRIS e a FUNCAP.

O objetivo geral deste projeto é realizar pesquisas científicas e tecnológicas visando o desenvolvimento de soluções para a construção de uma plataforma de governo digital que permita o desenvolvimento de serviços digitais de forma ágil, transparente, eficiente, sustentável, fácil de usar e alinhada com os princípios do serviço público que atenda às necessidades dos cidadãos e dos servidores públicos.

 

Linhas de Pesquisa 

Inteligência Artificial (IA) 

  • Criação automática de modelos para robotizar tarefas
  • Human into the loop (aprendizado semi-supervisionado) 
  • Robôs de conversação via voz e escrita (exemplo: Alexia) 
  • Transcrição de voz para texto 
  • Processamento de texto (sumarização, extração de entidades, geração de textos, etc) 
  • Explicação de algoritmos de IA para o cidadão 

Ciência de Dados 

  • Coleta e monitoramento de streaming de dados para otimização dos serviços 
  • Geração de visualizações semi-automáticas 

Experiência do Usuário/Usabilidade 

  • Métodos de avaliação de usabilidade e experiência do usuário 
  • Design Participativo 
  • Análise de usabilidade automatizada 

Mineração de Processos 

  • Análise e redesenho automático de fluxos 
  • Detecção de anomalias 

Engenharia de Software 

  • Geração de aplicações Low Code
  • Métodos de Desenho de Serviços/Projetos

 

Vagas ofertadas
Desenvolvedor Full Stack Júnior – Bolsista (Prorrogado)

Atualizado em 14.09.2020

Responsável por atuar no desenvolvimento de aplicações web e por desenvolver soluções inovadoras.

Habilidades em Javascript, Typescript, HTML, CSS, Java, Spring Boot, Git, Gitlab, Python, PostgreSQL e MongoDB.

Desejável conhecimento em Django, Docker, Redis, Scala, Play Framework e Lagom Framework.

 

Modalidade de Contratação

Bolsa graduação FUNCAP  

 

Candidatura

Acesse o formulário para enviar seus dados, seu currículo e resolver o desafio. Não esqueça de enviar a solução do seu desafio. Vagas somente para Fortaleza! 

A seleção estará aberta até o preenchimento da vaga.

Engenheiro de Dados – Analista Pleno (Preenchida)

Responsável por estudar tecnologias que se adequem às necessidades dos produtos; por contribuir para a tomada de decisões tecnológicas; por tornar os dados mais legíveis e por atuar na construção de Data Lakes.

Habilidades em: MongoDB, PostgreSQL, Redis, Python, Jupyter Notebook, Google Colab, Numpy, Pandas, Matplotlib, Kafka, Scikit-Learn, Business Intelligence, Data Lake, Dashboard, Big Data, Git e Gitlab.

Habilidades em Spark e AirFlow serão um diferencial.

 

Desenvolvedor Front-End Júnior (preenchida)

Responsável por atuar no desenvolvimento de aplicações web e por desenvolver soluções inovadoras.

Habilidades em Javascript, Typescript, HTML, CSS, React Js, Git e Gitlab.

Desejável conhecimento em Node Js,  MongoDB, Firebase e Spring Boot.

 

Líder Técnico – Analista Pleno (preenchida)

Responsável por estudar tecnologias que se adequem às necessidades dos produtos; por contribuir para a tomada de decisões tecnológicas; por atuar na arquitetura e desenvolvimento de plataformas e por liderar squads de desenvolvimento. 

Habilidades em UML, Padrões de Projeto,  Microsserviços, Javascript, TypeScript, HTML, CSS, Java, Spring Boot, Python, Git, Gitlab, MongoDB, PostgreSQL e Redis.

Desejável conhecimento em Django, Docker, Kafka, Kubernetes, ElasticSearch, Scala, Play Framework e Lagom Framework.

Desenvolvedor Full-Stack Júnior especialista em aplicações móveis (preenchida)

Responsável por atuar no desenvolvimento de aplicações móveis e por desenvolver soluções inovadoras.

Habilidades em React native, Git, Gitlab, Firebase, Java e Spring Boot.

Desejável conhecimento em desenvolvimento nativo para iOS e Android.

 

Duração do projeto

36 meses

Importante

O Edital 02/2020, lançado anteriormente, contempla o mesmo projeto, porém não vigora sobre as vagas aqui citadas. As vagas aqui publicadas não pertencem a qualquer edital e estão sendo oficialmente regidas pelas regras descritas nos documentos aqui linkados. 

Os valores, duração das bolsas e contratações serão informados aos selecionados durante o processo.

———————–                                                                                          ———————–

Boa sorte!

Acompanhe as nossas redes sociais para mais avisos.

 

Sair da versão mobile