Dez tecnologias ‘mágicas’ que podem chegar em breve aos programas Adobe

Fonte:Techtudo

Durante o evento de criatividade Adobe Max, os engenheiros da empresa mostraram os projetos que estão sendo desenvolvidos para o futuro

Um programa que transforma sua voz em som de instrumento musical, outro que converte fotos em vídeo e, ainda, um que faz qualquer foto virar uma fonte editável no computador. Tudo isso pode se tornar realidade em breve. A Adobe apresentou em sua conferência anual, o Adobe Max, uma série de novos projetos que ainda estão em desenvolvimento e que podem, em breve, ser implementadas em apps de edição como Photoshop, Premiere, Dimension e companhia.

Durante a sessão do evento, chamada de Max Seneaks, os participantes podem ver e se impressionar com as apresentações feitas por engenheiros da empresa. Em geral, são exibidas funções úteis, quase “mágicas”, criadas com com a ajuda da inteligência artificial, que vão ajudar profissionais e leigos a poupar muito tempo em suas tarefas.

Max Sneaks é a sessão do evento da Adobe em que as novas tecnologias da empresa são apresentadas — Foto: Nicolly Vimercate/TechTudo

Max Sneaks é a sessão do evento da Adobe em que as novas tecnologias da empresa são apresentadas — Foto: Nicolly Vimercate/TechTudo

 

Quer comprar celular, TV e outros produtos com desconto? Conheça o Compare TechTudo

Embora o Sneaks seja uma sessão fechada apenas para os participantes do evento, a Adobe divulgou os vídeos das apresentações dos projetos — que tiveram a participação da comediante americana Tiffany Haddish. Conheça a seguir as tecnologias que você pode (ou não) usar em breve.

Recomendamos assistir aos vídeos com a legenda em português — veja como exibir a legenda traduzida no YouTube.

O Brush Bounty tem o objetivo de facilitar a vida de quem faz animação. Quando esses profissionais querem adicionar chuva a uma imagem, por exemplo, eles precisam desenhar e incluir no quadro pingo por pingo. A nova ferramenta conta com “pincéis” que adicionam chuva fina ou intensa em movimento ao cenário sem esforço algum — entre milhares de outras possibilidades.

O mais interessante é que esses pincéis podem ser controlados por qualquer tipo de dado. O volume de chuva pode ser determinado pelo clima real da cidade. O tamanho do cabelo da personagem, pelos tuítes dos espectadores. Tudo em tempo real.

2. #ProjectSmoothOperator

Quem usa o Instagram Stories sabe como é complicado postar um vídeo que não foi filmado na vertical e conseguir um bom resultado. O Project Smooth Operator traz a solução: usando a inteligência artificial da empresa, chamada Adobe Sensei, a ferramenta consegue identificar o objeto mais importante do vídeo e fazer o corte seguindo esse objeto por onde ele for.

Imagine que você filmou vários amigos saltando de um lugar para o outro. A nova tecnologia consegue identificar todas as pessoas do vídeo e acompanhá-las durante o movimento, poupando muito trabalho de quem teria que editar essa filmagem manualmente e transformá-la em um vídeo vertical.

O projeto Fantastic Fold arrancou suspiros dos designers de embalagem presentes na plateia. A tecnologia da ferramenta consegue fazer com que uma ilustração se adapte perfeitamente a qualquer tipo de caixa que será impressa e montada.

Atualmente, sem essaa tecnologia, os profissionais da área precisam mover meticulosamente as partes corretas da caixa no computador para que, ao transformá-la em um objeto real, os desenhos e palavras estejam perfeitos. Durante a apresentação, foi mostrado um origami, com suas dezenas de dobraduras. Ele foi ilustrado com dois ou três cliques, visualizado na tela e impresso somente quando já estava perfeito — sem ter que repetir diversas vezes o processo: ilustra, imprime, dobra, corrige.

O Project Waltz permite que ilustradores que criam projetos em 3D usem a câmera do celular para navegar no cenário virtual. Hoje em dia, as peças são criadas no computador e os criadores só podem visualizá-las usando mouse e teclado, virando os objetos para lá e para cá na tela.

Com esse novo app, que usa realidade aumentada, o criador consegue ver o objeto 3D pela câmera do celular e “andar” ao redor da sua criação, como se fosse algo real. Assim, pode ver todos os ângulos, fazer movimentos de câmera parecidos como os de filme, e até “entrar” no cenário.

Encontrar a fonte perfeita para um projeto pode ser uma tarefa árdua. Agora, imagine que você viu uma tipografia em um folder que recebeu na rua e acredita que essa seja a letra ideal para o seu trabalho. Como descobrir o nome dessa fonte e onde ela está disponível?

Para resolver o dilema, que parece impossível, o Fontphoria usa o celular e a inteligência artificial. Basta apontar a câmera para a fonte desejada e a tecnologia de machine learning recria a tipografia na tela automaticamente, com todos os seus detalhes. Não só a palavra fotograda, mas também aplica o estilo da fonte a todo o alfabeto. O público amou a ideia e sem empolgou com a novidade. O que acontece com os direitos autorais de quem criou a fonte? Isso, até o momento, ninguém explicou.

Para selecionar um objeto em movimento em um vídeo e editar só o fundo da imagem, o editor precisa marcar frame a frame os seus limites. Muito trabalhoso, certo? O Project Fast Mask consegue automatizar tudo isso e aplicar a máscara necessária com poucos cliques. Como mostra o vídeo a seguir, a ferramenta identifica a pessoa, o animal ou qualquer outra coisa que deve ser protegida no cenário que será editado e a seleção acompanha o objeto durante o movimento.

Quando se está editando um projeto 3D, ao contrário de imagens em 2D, não basta selecionar e arrastar para aumentar ou diminuir seu tamanho. Os designers precisam clicar em pontinho por pontinho para que, ao fim do processo, não haja deformação no objeto.

O que o Project Model Morph faz é levar a inteligência artificial a entender qual parte da imagem está sendo selecionada. Assim, ao clicar e arrastar, a ferramenta mantém as proporções e não deforma o produto. Só quem trabalha com isso consegue imaginar quanto tempo poderá poupar se a tecnologia for, de fato, implementada.

O Moving Stills é uma ferramenta para transformar fotos em vídeos. Mas não só isso. A tecnologia consegue, com um clique, pegar uma imagem estática e dar a ela o estilo 3D. Ao ver o resultado final, a sensação é de imersão, como se o espectador estivesse “entrando” no cenário da foto.

Isso acontece porque a inteligência artificial separa os objetos fotografados e dá a cada um o movimento diferente, como zoom ou panorâmica, causando a impressão de que a câmera está se movendo, como em um filme. Finalmente, os vídeos com fotos no estilo Movie Maker, podem ficar para trás.

Um dos projetos que mais entusiasmou o público do Adobe Max foi o Project Kazoo, um app capaz de converter a voz do usuário em música. Ele consegue captar as notas usadas pela pessoa que cantou e transformá-las em som de um violino ou qualquer outro instrumento musical.

O apresentador, inclusive, tocou algumas notas em uma flautinha daquelas usadas por crianças na escola e transformou em som de saxofone. A tecnologia já faz muita coisa, mas não garante a afinação.

Por último, mas não menos “mágico” que os demais, está o Project Good Bones. A ferramenta pode tornar a complexa tarefa de editar vetores em uma ação quase que divertida. Essa tecnologia consegue analisar as formas de um gráfico e criar um esqueleto, conectando os “ossos” (bones, em inglês), para que o designer possa dar movimentos a pessoas, animais e outros objetos na tela de maneira simples.

*A jornalista viajou para Los Angeles a convite da Adobe

Anúncios

Deixe um comentário

Preencha os seus dados abaixo ou clique em um ícone para log in:

Logotipo do WordPress.com

Você está comentando utilizando sua conta WordPress.com. Sair /  Alterar )

Foto do Google+

Você está comentando utilizando sua conta Google+. Sair /  Alterar )

Imagem do Twitter

Você está comentando utilizando sua conta Twitter. Sair /  Alterar )

Foto do Facebook

Você está comentando utilizando sua conta Facebook. Sair /  Alterar )

Conectando a %s