-
Desenvolvimento Web
|
Intermediário |
Publicado:
|
Tempo restante: |
Propostas: 1 |
Interessados: 2
Atualmente, vendo no Elo7 e esse site não disponibiliza nenhum tipo de integração com nenhuma plataforma que facilite a gestão das vendas.
Gostaria de criar uma integração com o Bling, mas teria que ser por scraping ou alguma outra forma de obter os dados, já que o site não oferece nenhuma documentação nem autenticação API para isso.
Precisa ser de fácil replicação da configuração para outras lojas minhas na mesma plataforma. Tenho hospedagem na Hostinger para a aplicação.
Integração
Integração de Ecommerce
Programação
Web Scraping
Cliente:
(5
avaliações)
-
Outra - Web, Mobile & Software
|
Iniciante |
Publicado:
|
Tempo restante: |
Propostas: 22 |
Interessados: 32
Estou em busca de um profissional para desenvolver um script de web scraping que extraia informações de produtos de um e-commerce específico e envie esses dados para a minha conta no Bling. O objetivo é automatizar a coleta de informações, como nome, preço, descrição e categorias dos produtos, para otimizar a gestão do meu estoque.
Requisitos do projeto:
• Desenvolver um script de scraping para coletar dados do site de e-commerce mencionado.
• O script deve conseguir extrair as informações de produtos por categoria, conforme disponíveis no site.
• Os dados extraídos devem ser formatados conforme as necessidades da API do Bling (versão 3), incluindo variações de produtos (tamanho, cor, etc.).
• O script deverá permitir o envio direto para o Bling sem a necessidade de um ambiente virtual.
• Incluir autenticação de login e tratamento de erros do processo de raspagem.
• A solução deve ser eficiente e otimizada para garantir uma execução rápida.
Tecnologias desejadas:
• Python (bibliotecas como BeautifulSoup, Requests ou Scrapy, por exemplo).
• Conhecimento da API do Bling v3 para integração.
• Capacidade de gerar um arquivo de dados compatível com o Bling (por exemplo, em JSON ou XML).
Requisitos adicionais:
• Experiência prévia em projetos de web scraping e integração com APIs.
• Capacidade de fornecer documentação clara para a implementação.
• Facilidade de comunicação e feedback rápido.
Cliente:
Victor G.
(15
avaliações)
-
Outra - Web, Mobile & Software
|
Iniciante |
Publicado:
|
Tempo restante: |
Propostas: 15 |
Interessados: 22
Quero um bot que analise qual cor predominou após o número mais recente cair na roleta.
Ex: Caiu 1 ou qualquer um.
O bot analisa as últimas 500 rodadas em tempo real e me lista assim:
• Cairam 5 números pretos
• 7 vermelhos
• 1 verde (que seria o 0)
ChatGPT me disse que algo sobre API e web scraping.
Cliente:
Gustavo S.
(Sem feedback)
-
Outra - Web, Mobile & Software
|
Especialista |
Publicado:
|
Tempo restante: |
Propostas: 31 |
Interessados: 37
Eu tenho 3 códigos prontos em Python que abrem o navegador do computador, acessam meu sistema, baixam uma planilha e enviam para o BigQuery.
Os códigos estão totalmente prontos e funcionavam perfeitamente, mas por algum motivo que não sei, pararam de funcionar.
Seu trabalho é revisar o código e deixá-lo funcionando perfeitamente no meu ambiente.
Python
Cliente:
Diogo L.
(53
avaliações)
-
Outra - Web, Mobile & Software
|
Iniciante |
Publicado:
|
Tempo restante: |
Propostas: 10 |
Interessados: 15
Descrição do projeto:
Estamos desenvolvendo um projeto inovador de análise de padrões no futebol virtual da Bet365, com foco na identificação de oportunidades estatísticas para apostas esportivas inteligentes. Buscamos um desenvolvedor experiente em scraping e automação web para criar um sistema que colete os resultados dos jogos virtuais em tempo real e alimente uma base de dados organizada.
O que esperamos:
Etapa 1 – Web Scraper:
Desenvolver um scraper (em Python, Node.js ou linguagem de preferência) que acesse a seção de “Futebol Virtual” da Bet365.
Capturar e registrar automaticamente:
• Horário do jogo
• Nome dos times
• Placar final
• Resultado (vitória, empate, derrota)
• Total de gols
• Odds dos mercados principais (opcional)
Armazenar esses dados em um banco estruturado (pode ser CSV, Google Sheets, MySQL ou Firebase).
Etapa 2 – Automação:
O script deve rodar em intervalos regulares (idealmente a cada 5 minutos).
Implementar controle de erros e bypass de bloqueios/captchas leves, se necessário.
Etapa 3 – Preparação para integração com IA:
Estruturar os dados de forma limpa para facilitar futura integração com um sistema de análise estatística (que já está sendo modelado).
Requisitos técnicos desejáveis:
• Experiência com scraping de sites complexos (preferência: sites com conteúdo dinâmico ou protegidos)
• Familiaridade com Selenium, Puppeteer, BeautifulSoup ou frameworks semelhantes
• Conhecimento de manipulação de dados e bancos (MySQL, PostgreSQL ou Firebase)
• Noções básicas de segurança (para não bloquear IP)
Diferenciais (não obrigatórios):
• Experiência anterior com dados esportivos ou projetos de apostas
• Habilidade para desenvolver API para servir os dados futuramente
• Saber lidar com estruturas dinâmicas como as usadas pela Bet365 (que atualizam via JavaScript)
Entrega esperada:
• Script funcionando em ambiente de testes (pode ser local ou nuvem)
• Dados sendo coletados e organizados automaticamente em banco/planilha
• Documentação simples de como rodar e manter o sistema.
.NET Framework
Cliente:
Marcos A.
(6
avaliações)
-
Outra - Web, Mobile & Software
|
Intermediário |
Publicado:
|
Tempo restante: |
Propostas: 9 |
Interessados: 13
Criar uma automação utilizando a plataforma Maker que realize web scraping, processe os dados com Inteligência Artificial (IA) e disponibilize as informações em um chatbot no Telegram.
Requisitos do projeto:
Automação no Maker:
• Configurar o Maker para executar fluxos automatizados.
• Definir gatilhos para ativar a coleta de dados em intervalos programados ou sob demanda.
Web Scraping:
• Extrair informações de sites específicos (a serem definidos).
• Lidar com bloqueios e CAPTCHAs, se necessário.
• Armazenar os dados extraídos em um banco de dados ou API.
Integração com IA:
• Processar os dados coletados com modelos de IA para análises e previsões.
• Opção de utilizar APIs de IA (OpenAI, Gemini, Claude) para interpretação e insights.
• Estruturar os dados de forma compreensível para os usuários.
Chatbot no Telegram:
• Criar um chatbot que receba e responda mensagens no Telegram.
• Implementar comandos específicos (exemplo: /buscar, /atualizar, /ajuda).
• Integrar com a IA para respostas personalizadas e baseadas nos dados coletados.
Infraestrutura e hospedagem:
• Definir onde o sistema será hospedado (AWS, Google Cloud, VPS, etc.).
• Garantir escalabilidade e segurança da aplicação.
Diferenciais (opcional, mas recomendado):
• Implementar APIs para facilitar a comunicação entre os serviços.
• Criar um painel de controle para acompanhar as interações e os dados extraídos.
• Automatizar respostas do chatbot com base no aprendizado contínuo da IA.
Habilidades necessárias para o freelancer:
• Experiência com Maker (criação de automações).
• Conhecimento em web scraping (Python + BeautifulSoup, Scrapy, Selenium).
• Familiaridade com APIs de IA (OpenAI, Gemini, etc.).
• Desenvolvimento de chatbots no Telegram (Python + Telegram Bot API).
• Experiência com hospedagem de aplicações e bancos de dados.
Banco De Dados
Desenvolvimento Web
Programação
Cliente:
Marcus C.
(Sem feedback)
-
Desenvolvimento Web
|
Intermediário |
Publicado:
|
Tempo restante: |
Propostas: 15 |
Interessados: 18
Preciso de um desenvolvedor especializado em Inteligência Artificial (IA) e automação web para criar um site de notícias automatizado com as seguintes funcionalidades:
Coleta automatizada de notícias:
• O sistema deve extrair notícias de fontes pré-definidas (RSS, APIs de portais ou scraping).
• Identificar e baixar imagens relacionadas às notícias.
Processamento com IA:
• Usar IA generativa (ex: GPT-4, Claude, ou modelos open-source como Llama 3) para reescrever as notícias, mantendo a originalidade e evitando plágio.
• Garantir que o texto gerado seja coerente, bem estruturado e com tom jornalístico.
Publicação automática:
• Postar as notícias automaticamente no site (WordPress, CMS customizado ou outra plataforma).
• Incluir fotos, créditos da fonte e tags (SEO básico).
Requisitos técnicos:
• Experiência com Python, APIs de IA (OpenAI, Gemini, Hugging Face) e automação.
• Conhecimento em web scraping (BeautifulSoup, Scrapy) ou APIs de notícias (NewsAPI, Google News).
• Familiaridade com CMS (WordPress) ou frameworks web (Django, Flask) para integração.
Diferenciais:
• Sistemas de moderação automática (filtrar fake news ou temas sensíveis).
• Personalização de estilo de escrita (ex: formal, casual).
Orçamento: A combinar.
Desenvolvimento de API
Inteligência Artificial
RSS
SEO
Wordpress
Cliente:
Alana - 2.
(Sem feedback)
-
Desenvolvimento Web
|
Especialista |
Publicado:
|
Tempo restante: |
Propostas: 12 |
Interessados: 17
Trabalho com licitação e migramos para o Bitrix24 CRM.
Todo o nosso controle sempre foi feito através de planilhas no Google Sheets.
Exportamos uma planilha com as licitações que queremos participar da Plataforma Effecti. Depois, precisamos fazer uma triagem considerando dados como prazo de entrega, valor mínimo e se inclui serviço ou não. Hoje utilizamos o ChatGPT para esse processo.
Depois de triado, utilizo uma planilha de preço para validar o produto, marca e modelo que atendem às especificações e informo o preço de venda. Após a licitação precificada e participação, preciso dos resultados para saber se ganhamos, se perdemos, por que perdemos, qual o produto que o concorrente ofertou, o valor, etc., para que possa analisar para as próximas licitações.
Qual a necessidade? Criar uma automação para que essa triagem (prazo de entrega, valor mínimo, serviço: sim ou não) seja feita de forma automática, integrada com o ChatGPT ou similar. Além da triagem automatizada, gostaria que os resultados também fossem automáticos; hoje baixamos o PDF e fazemos cópia e cola no Google Sheets.
Estruturar as tabelas:
Tabela 1: Licitações - Registra todas as licitações aprovadas e rejeitadas.
Tabela 2: Precificação de Produtos - Base de preços praticados e histórico de concorrência.
Tabela 3: Fornecedores - Informações sobre cada fornecedor e seus produtos.
Tabela 4: Controle Financeiro - Informações dos pedidos para analisar lucro, prejuízo e produtos mais rentáveis.
Depois de estruturar a base, gostaria que algumas informações fossem enviadas para o Bitrix através de integração com o Albato ou similar.
A ideia é utilizar o Airtable como base de dados para triagem e análise das licitações, e o Bitrix para o operacional, onde iremos fazer o acompanhamento do pedido até a entrega, acompanhando compras, envio, faturamento e financeiro.
Porém, estou aberto a melhorias no processo e sugestões de fluxo de trabalho.
Segue os vídeos dos processos:
https://reccloud.com/pt/u/oodlpef
https://reccloud.com/pt/u/xuxce44
Desenvolvimento AI/RPA
Desenvolvimento de API
Integração
Integração de Dados
Web Scraping
Cliente:
Rafael L.
(Sem feedback)
-
Desenvolvimento Web
|
Iniciante |
Publicado:
|
Tempo restante: |
Propostas: 12 |
Interessados: 22
Preciso de um sistema que monitore anúncios de carros em sites especializados e no Marketplace do Facebook, realizando buscas automatizadas de acordo com filtros pré-definidos (marca, modelo, faixa de preço, localização, etc.). O sistema deve coletar esses dados e enviá-los para um painel web onde os usuários possam visualizar e gerenciar as informações.
Coleta automática de anúncios a cada 1 hora nos seguintes sites:
• OLX
• Webmotors
• iCarros
• Mercado Livre
• Marketplace do Facebook (se possível, via web scraping ou outra solução viável)
Filtros de pesquisa personalizados (marca, modelo, ano, preço, localização, etc.).
Painel web (dashboard) onde os usuários podem:
• Configurar buscas personalizadas
• Visualizar os anúncios coletados
• Receber notificações sobre novas ofertas
Envio de notificações via e-mail ou WhatsApp sempre que um novo anúncio atender aos critérios definidos.
Automação rodando 24h/dia sem necessidade de intervenção manual.
Requisitos técnicos:
• O sistema deve ser hospedado em um serviço barato e confiável que funcione 24h/dia.
• Web scraping deve ser eficiente, evitando bloqueios dos sites.
• Interface do painel deve ser simples, responsiva e intuitiva.
• Código bem estruturado e documentado para futuras melhorias.
Entregáveis:
• Código-fonte completo e documentado.
• Painel web funcional para configuração e exibição das buscas.
• Script de automação para busca e armazenamento de anúncios.
• Instruções para deploy e configuração do sistema.
Automação de processos robóticos
Banco De Dados
NodeJS
Python
Web Scraping
Cliente:
Geovani J.
(4
avaliações)
-
Outra - Web, Mobile & Software
|
Especialista |
Publicado:
|
Tempo restante: |
Propostas: 11 |
Interessados: 16
Preciso de uma solução para as requisições que falham nas requisições que meu crawler faz. Algumas falhas são causadas por timeouts, enquanto outras são bloqueios por geolocalização, entre outros problemas.
Faço mais de 1 milhão de requisições diariamente.
Python
Scrapy
Web Scraping
Cliente:
Marcello G.
(29
avaliações)