Je vais vous parler de l'image AI Webui (Diffnité stable)


 


Aujourd'hui, je vais vous guider le site qui dessine l'image gratuitement avec l'IA!
Vous pouvez dessiner une image très facilement!

Webui (Diffnité stable)

L'IA de stabilité, publiée le 22 août 2022, est un modèle d'IA qui convertit le texte en image. Ce modèle est distribué sous forme de licence open source, permettant à une variété d'utilisateurs de l'utiliser librement. Lorsque vous entrez le texte, la stabilité AI crée une image de haute qualité basée sur ce texte.

Adresse du site Web :
https://stability.ai/


caractéristique :
La diffusion stable est un modèle d'intelligence artificielle d'apprentissage en profondeur développé sur la base du «Recherche de synthèse d'image haute résolution» par le laboratoire du groupe Machine Vision & Learning Group (CompVis) à l'Université de Munich à Munich, en Allemagne. Il a été développé avec le soutien de la stabilité AI et de la piste ML.

Stabilité AI est une entreprise britannique appelée Emad Mostaque, fournissant des ressources informatiques pour une diffusion stable, vous permettant d'apprendre une base de données LAION-5B. Contrairement aux modèles de texte à image tels que Dall-E 2 ou Imagen, ce modèle peut également être utilisé sur des ordinateurs avec des VRAM de 4 Go ou moins en réduisant considérablement les ressources informatiques.

De plus, même s'il est cher, il est ouvert à l'open source et peut être utilisé par le grand public. Cela a ouvert l'âge de la peinture de l'IA, et la fonction de service d'image AI basée sur le modèle continue d'augmenter.

Vous pouvez utiliser la prise "ControlNet" pour faire une pose. De plus, en utilisant divers modèles auxiliaires ControlNet, tels que le modèle Canny dérivé de OpenSose, il ajuste les cultures de la zone du corps pour aider l'esquisse du niveau de ligne.

La diffiction stable est principalement composée de trois réseaux de neurones artificiels: Clip, UNET et VAE (VAE). Lorsque l'utilisateur entre dans le texte, le codeur de texte, Clip, convertit le texte en jeton que Unet peut comprendre. Unet crée une image en supprimant le bruit généré de manière aléatoire basée sur les jetons. La répétition du processus de dinuisage crée une image précise, et le VAE joue un rôle dans la conversion de ces images en pixels.

Contrairement au modèle traditionnel de création d'image de probabilité de diffusion, la diffusion stable a introduit l'incodeur Otto avant et après pour résoudre le problème que la consommation de ressources augmente à mesure que la résolution augmente. Cela vous permet de créer une image de résolution relativement grande en manipulant le bruit dans un petit niveau d'espace potentiel, pas à l'image entière, et ne nécessitant pas de nombreuses ressources informatiques. Par conséquent, la différence stable peut être utilisée comme ressource des cartes graphiques utilisées dans les hypothèses générales.


Licence:
L'IA stable a introduit une licence open source [4] pour le nouvel apprentissage automatique. Cette licence a une fonctionnalité différente de la licence open source habituelle. Si vous fournissez un service en utilisant une diffusion stable, l'utilisateur doit explicitement se conformer à cette licence. De plus, lors du réglage du modèle, il ne doit être utilisé que pour l'utilisation spécifique spécifiée dans la licence et ne doit pas être utilisée à d'autres fins.

Comment utiliser :
Divers projets open source ont été développés en utilisant une difficulté stable. Vous trouverez ci-dessous une description de chaque projet:

1. Ui Web stable Diffness: un projet qui fournit une interface utilisateur basée sur le Web pour faciliter l'utilisation du modèle de diffusion stable. Les développeurs continuent de mettre à jour et d'ajouter une variété de fonctionnalités telles que la correction GFPGAN, l'échelle ESRGAN et l'inversion textuelle en plus de la fonction avant de la diffusion stable.

2. Auteur original: Le projet original publié par CompVis. La convivialité est limitée, il peut donc être utilisé à des fins de référence.

3. Diffuseurs: Il s'agit d'un cadre pour le nouveau modèle de diffusion fourni par Herging Face, un célèbre fournisseur de cadre d'apprentissage automatique. Il fournit un moyen de faciliter la diffusion stable de la diffusion stable. Il comprend également des cadres tels que des transformateurs ou des ensembles de données.

4. DiffNnessBee: vous pouvez exécuter la différence stable directement avec l'application pour le Mac. Il est possible de saisir du texte et des images, et de prendre également en charge les fonctions de peinture et de dépôt. La version en silicium Apple utilise un moteur neuronal à l'intérieur du silicium Apple, et la version HQ utilise le GPU pour augmenter la qualité, mais la vitesse est lente. Il prend également en charge Intel Mac et prendra en charge Windows à l'avenir.

5. Dessinez des choses: vous pouvez exécuter une diffusion stable avec les applications pour iOS, iPados et macOS. Il prend en charge trois modes: CPU + GPU, CPU + moteur neuronal, CPU + GPU + moteur neuronal (tous). Vous pouvez utiliser le point de contrôle, LORA, l'inversion textuelle, etc., et offre une fonctionnalité similaire à WebUI. La fonction d'extension n'est pas prise en charge et en raison des contraintes de capacité de mémoire, l'application peut souvent se terminer en raison du manque de mémoire si elle s'exécute plus d'une certaine résolution dans les appareils anciens et nouveaux.

6. Riffusion: Il s'agit d'un exemple de l'application à la composition AI à l'aide du spectrogramme.

7. Dish à l'intérieur de la galerie d'images AI: Nous avons ouvert une galerie dédiée qui peut créer des images AI à l'aide du service de Civitai.

Les projets ci-dessus utilisent la diffusion stable pour créer des images AI dans diverses fonctions et environnements.




Commentaires