From 7b25687de041f155ddc60b2f0526835fe99d0191 Mon Sep 17 00:00:00 2001 From: Daniel Garcia Date: Fri, 27 Dec 2024 23:05:22 +0100 Subject: [PATCH 01/13] First test commit --- chapters/es/unit0/welcome/TableOfContents.mdx | 45 +++++ chapters/es/unit0/welcome/welcome.mdx | 165 ++++++++++++++++++ 2 files changed, 210 insertions(+) create mode 100644 chapters/es/unit0/welcome/TableOfContents.mdx create mode 100644 chapters/es/unit0/welcome/welcome.mdx diff --git a/chapters/es/unit0/welcome/TableOfContents.mdx b/chapters/es/unit0/welcome/TableOfContents.mdx new file mode 100644 index 000000000..6fb3ac593 --- /dev/null +++ b/chapters/es/unit0/welcome/TableOfContents.mdx @@ -0,0 +1,45 @@ +# Table of Contents for Notebooks + +Here you can find a list of notebooks that contain accompanying and hands-on material to the chapters you find in this course. +Feel free to browse them at your own speed and interest. + + +| Chapter Title | Notebooks | Colabs | +| ------------------------------------------------------- | ------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------- | ---------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------- | +| Unit 0 - Welcome | No Notebook | No Colab | +| Unit 1 - Fundamentals | No Notebook | No Colab | +| Unit 2 - Convolutional Neural Networks | [Transfer Learning with VGG19](https://github.com/johko/computer-vision-course/blob/main/notebooks/Unit%202%20-%20Convolutional%20Neural%20Networks/transfer_learning_vgg19.ipynb) | [Transfer Learning with VGG](https://colab.research.google.com/github/fariddinar/computer-vision-course/blob/main/notebooks/Unit%202%20-%20Convolutional%20Neural%20Networks/transfer_learning_vgg19.ipynb) | +| | [Using ResNet with timm](https://github.com/johko/computer-vision-course/blob/main/notebooks/Unit%202%20-%20Convolutional%20Neural%20Networks/timm_Resnet.ipynb) | [timm_Resnet](https://colab.research.google.com/github/fariddinar/computer-vision-course/blob/main/notebooks/Unit%202%20-%20Convolutional%20Neural%20Networks/timm_Resnet.ipynb) | +| Unit 3 - Vision Transformers | [Detection Transformer (DETR)](https://github.com/johko/computer-vision-course/blob/main/notebooks/Unit%203%20-%20Vision%20Transformers/DETR.ipynb) | [Detection Transformer (DETR)](https://colab.research.google.com/github/fariddinar/computer-vision-course/blob/main/notebooks/Unit%203%20-%20Vision%20Transformers/DETR.ipynb) | +| | [Fine-tuning Vision Transformers for Object Detection](https://github.com/johko/computer-vision-course/blob/main/notebooks/Unit%203%20-%20Vision%20Transformers/Fine-tuning%20Vision%20Transformers%20for%20Object%20detection.ipynb) | [Fine-tuning Vision Transformers for Object Detection](https://colab.research.google.com/github/fariddinar/computer-vision-course/blob/main/notebooks/Unit%203%20-%20Vision%20Transformers/Fine-tuning%20Vision%20Transformers%20for%20Object%20detection.ipynb) | +| | [Knowledge Distillation](https://github.com/johko/computer-vision-course/blob/main/notebooks/Unit%203%20-%20Vision%20Transformers/KnowledgeDistillation.ipynb) | [Knowledge Distillation](https://colab.research.google.com/github/fariddinar/computer-vision-course/blob/main/notebooks/Unit%203%20-%20Vision%20Transformers/KnowledgeDistillation.ipynb) | +| | [LoRA Fine-tuning for Image Classification](https://github.com/johko/computer-vision-course/blob/main/notebooks/Unit%203%20-%20Vision%20Transformers/LoRA-Image-Classification.ipynb) | [LoRA Fine-tuning for Image Classification](https://colab.research.google.com/github/fariddinar/computer-vision-course/blob/main/notebooks/Unit%203%20-%20Vision%20Transformers/LoRA-Image-Classification.ipynb) | +| | [Fine-tuning for Multilabel Image Classification](https://github.com/johko/computer-vision-course/blob/main/notebooks/Unit%203%20-%20Vision%20Transformers/fine-tuning-multilabel-image-classification.ipynb) | [Fine-tuning for Multilabel Image Classification](https://colab.research.google.com/github/fariddinar/computer-vision-course/blob/main/notebooks/Unit%203%20-%20Vision%20Transformers/fine-tuning-multilabel-image-classification.ipynb) | +| | [Transfer Learning for Image Classification](https://github.com/johko/computer-vision-course/blob/main/notebooks/Unit%203%20-%20Vision%20Transformers/transfer-learning-image-classification.ipynb) | [Transfer Learning for Image Classification](https://colab.research.google.com/github/fariddinar/computer-vision-course/blob/main/notebooks/Unit%203%20-%20Vision%20Transformers/transfer-learning-image-classification.ipynb) | +| | [Transfer Learning for Image Segmentation](https://github.com/johko/computer-vision-course/blob/main/notebooks/Unit%203%20-%20Vision%20Transformers/transfer-learning-segmentation.ipynb) | [Transfer Learning for Image Segmentation](https://colab.research.google.com/github/fariddinar/computer-vision-course/blob/main/notebooks/Unit%203%20-%20Vision%20Transformers/transfer-learning-segmentation.ipynb) | +| | [Swin Transformer](https://github.com/johko/computer-vision-course/blob/main/notebooks/Unit%203%20-%20Vision%20Transformers/Swin.ipynb) | [Swin Transformer](https://colab.research.google.com/github/fariddinar/computer-vision-course/blob/main/notebooks/Unit%203%20-%20Vision%20Transformers/Swin.ipynb) | +| Unit 4 - Multimodal Models | [Clip Crop](https://github.com/johko/computer-vision-course/blob/main/notebooks/Unit%204%20-%20Multimodal%20Models/ClipCrop.ipynb) | [Clip Crop](https://colab.research.google.com/github/fariddinar/computer-vision-course/blob/main/notebooks/Unit%204%20-%20Multimodal%20Models/ClipCrop.ipynb) | +| | [Fine-tuning CLIP](https://github.com/johko/computer-vision-course/blob/main/notebooks/Unit%204%20-%20Multimodal%20Models/Clip_finetune.ipynb) | [Fine-tuning CLIP](https://colab.research.google.com/github/fariddinar/computer-vision-course/blob/main/notebooks/Unit%204%20-%20Multimodal%20Models/Clip_finetune.ipynb) | +| | [Clustering with CLIP](https://github.com/johko/computer-vision-course/blob/main/notebooks/Unit%204%20-%20Multimodal%20Models/CLIP%20and%20relatives/Clustering%20with%20CLIP.ipynb) | [Clustering with CLIP](https://colab.research.google.com/github/fariddinar/computer-vision-course/blob/main/notebooks/Unit%204%20-%20Multimodal%20Models/CLIP%20and%20relatives/Clustering%20with%20CLIP.ipynb) | +| | [Image Classification with CLIP](https://github.com/johko/computer-vision-course/blob/main/notebooks/Unit%204%20-%20Multimodal%20Models/CLIP%20and%20relatives/Image%20classification%20with%20CLIP.ipynb) | [Image Classification with CLIP](https://colab.research.google.com/github/fariddinar/computer-vision-course/blob/main/notebooks/Unit%204%20-%20Multimodal%20Models/CLIP%20and%20relatives/Image%20classification%20with%20CLIP.ipynb) | +| | [Image Retrieval with Prompts](https://github.com/johko/computer-vision-course/blob/main/notebooks/Unit%204%20-%20Multimodal%20Models/CLIP%20and%20relatives/Image_retrieval_with_prompts.ipynb) | [Image Retrieval with Prompts](https://colab.research.google.com/github/fariddinar/computer-vision-course/blob/main/notebooks/Unit%204%20-%20Multimodal%20Models/CLIP%20and%20relatives/Image_retrieval_with_prompts.ipynb) | +| | [Image Similarity](https://github.com/johko/computer-vision-course/blob/main/notebooks/Unit%204%20-%20Multimodal%20Models/CLIP%20and%20relatives/Image_similarity.ipynb) | [Image Similarity](https://colab.research.google.com/github/fariddinar/computer-vision-course/blob/main/notebooks/Unit%204%20-%20Multimodal%20Models/CLIP%20and%20relatives/Image_similarity.ipynb) | +| Unit 5 - Generative Models | No Notebook | No Colab | +| Unit 6 - Basic CV Tasks | [Fine-tune SAM on Custom Dataset]() | [Fine-tune SAM on Custom Dataset]() | +| Unit 7 - Video and Video Processing | [Fine-tune ViViT for Video Classification](https://github.com/DiwakarBasnet/computer-vision-course/blob/unit-7_Video_and_VideoProcessing/notebooks/Unit%207%20-%20Video%20and%20Video%20Processing/Vivit_Fine_tuned_Video_Classification.ipynb) | [Fine-tune ViViT for Video Classification](https://github.com/DiwakarBasnet/computervisioncourse/blob/unit7_Video_and_VideoProcessing/notebooks/Unit%207%20%20Video%20and%20Video%20Processing/Vivit_Fine_tuned_Video_Classification.ipynb) | +| Unit 8 - 3D Vision, Scene Rendering, and Reconstruction | No Notebook | No Colab | +| Unit 9 - Model Optimization | [Edge TPU](https://github.com/johko/computer-vision-course/blob/main/notebooks/Unit%209%20-%20Model%20Optimization/edge_tpu.ipynb) | [Edge TPU](https://colab.research.google.com/github/fariddinar/computer-vision-course/blob/main/notebooks/Unit%209%20-%20Model%20Optimization/edge_tpu.ipynb) | +| | [ONNX](https://github.com/johko/computer-vision-course/blob/main/notebooks/Unit%209%20-%20Model%20Optimization/onnx.ipynb) | [ONNX](https://colab.research.google.com/github/fariddinar/computer-vision-course/blob/main/notebooks/Unit%209%20-%20Model%20Optimization/onnx.ipynb) | +| | [OpenVINO](https://github.com/johko/computer-vision-course/blob/main/notebooks/Unit%209%20-%20Model%20Optimization/openvino.ipynb) | [OpenVINO](https://colab.research.google.com/github/fariddinar/computer-vision-course/blob/main/notebooks/Unit%209%20-%20Model%20Optimization/openvino.ipynb) | +| | [Optimum](https://github.com/johko/computer-vision-course/blob/main/notebooks/Unit%209%20-%20Model%20Optimization/optimum.ipynb) | [Optimum](https://colab.research.google.com/github/fariddinar/computer-vision-course/blob/main/notebooks/Unit%209%20-%20Model%20Optimization/optimum.ipynb) | +| | [TensorRT](https://github.com/johko/computer-vision-course/blob/main/notebooks/Unit%209%20-%20Model%20Optimization/tensorrt.ipynb) | [TensorRT](https://colab.research.google.com/github/fariddinar/computer-vision-course/blob/main/notebooks/Unit%209%20-%20Model%20Optimization/tensorrt.ipynb) | +| | [TMO](https://github.com/johko/computer-vision-course/blob/main/notebooks/Unit%209%20-%20Model%20Optimization/tmo.ipynb) | [TMO](https://colab.research.google.com/github/fariddinar/computer-vision-course/blob/main/notebooks/Unit%209%20-%20Model%20Optimization/tmo.ipynb) | +| | [Torch](https://github.com/johko/computer-vision-course/blob/main/notebooks/Unit%209%20-%20Model%20Optimization/torch.ipynb) | [Torch](https://colab.research.google.com/github/fariddinar/computer-vision-course/blob/main/notebooks/Unit%209%20-%20Model%20Optimization/torch.ipynb) | +| Unit 10 - Synthetic Data Creation | [Dataset Labeling with OWLv2](https://github.com/johko/computer-vision-course/blob/main/notebooks/Unit%2010%20-%20Synthetic%20Data%20Creation/OWLV2_labeled_image_dataset_with_annotations.ipynb) | [Dataset Labeling with OWLv2](https://colab.research.google.com/github/fariddinar/computer-vision-course/blob/main/notebooks/Unit%2010%20-%20Synthetic%20Data%20Creation/OWLV2_labeled_image_dataset_with_annotations.ipynb) | +| | [Generating Synthetic Lung Images](https://github.com/johko/computer-vision-course/blob/main/notebooks/Unit%2010%20-%20Synthetic%20Data%20Creation/Synthetic_lung_images_hf_course.ipynb) | [Generating Synthetic Lung Images](https://colab.research.google.com/github/fariddinar/computer-vision-course/blob/main/notebooks/Unit%2010%20-%20Synthetic%20Data%20Creation/Synthetic_lung_images_hf_course.ipynb) | +| | [BlenderProc Examples](https://github.com/johko/computer-vision-course/blob/main/notebooks/Unit%2010%20-%20Synthetic%20Data%20Creation/blenderproc_examples.ipynb) | [BlenderProc Examples](https://colab.research.google.com/github/fariddinar/computer-vision-course/blob/main/notebooks/Unit%2010%20-%20Synthetic%20Data%20Creation/blenderproc_examples.ipynb) | +| | [Image Labeling with BLIP-2](https://github.com/johko/computer-vision-course/blob/main/notebooks/Unit%2010%20-%20Synthetic%20Data%20Creation/image_labeling_BLIP_2.ipynb) | [Image Labeling with BLIP-2](https://colab.research.google.com/github/fariddinar/computer-vision-course/blob/main/notebooks/Unit%2010%20-%20Synthetic%20Data%20Creation/image_labeling_BLIP_2.ipynb) | +| | [Synthetic Data Creation with SDXL Turbo](https://github.com/johko/computer-vision-course/blob/main/notebooks/Unit%2010%20-%20Synthetic%20Data%20Creation/synthetic_data_creation_sdxl_turbo.ipynb) | [Synthetic Data Creation with SDXL Turbo](https://colab.research.google.com/github/fariddinar/computer-vision-course/blob/main/notebooks/Unit%2010%20-%20Synthetic%20Data%20Creation/synthetic_data_creation_sdxl_turbo.ipynb) | +| Unit 11 - Zero Shot Computer Vision | No Notebook | No Colab | +| Unit 12 - Ethics and Biases | No Notebook | No Colab | +| Unit 13 - Outlook | No Notebook | No Colab | diff --git a/chapters/es/unit0/welcome/welcome.mdx b/chapters/es/unit0/welcome/welcome.mdx new file mode 100644 index 000000000..4a8709007 --- /dev/null +++ b/chapters/es/unit0/welcome/welcome.mdx @@ -0,0 +1,165 @@ +# Bienvenidos al curso comunitario de Visión Artificial! //# Welcome to the Community Computer Vision Course + + +Querido participante, //Dear learner, *Pongo participante aquí en lugar de estudiante/aprendiz + +Welcome to the **community-driven course on computer vision**. Computer vision is revolutionizing our world in many ways, from unlocking phones with facial recognition to analyzing medical images for disease detection, monitoring wildlife, and creating new images. Together, we'll dive into the fascinating world of computer vision! + +Throughout this course, we'll cover everything from the basics to the latest advancements in computer vision. It's structured to include various foundational topics, making it friendly and accessible for everyone. We're delighted to have you join us for this exciting journey! + +On this page, you can find how to join the learners community, make a submission and get a certificate, and more details about the course! + +## Assignment 📄 + +To obtain your certification for completing the course, complete the following assignments: + +1. Training/fine-tuning a model +2. Building an application and hosting it on Hugging Face Spaces + +### Training/fine-tuning a Model + +There are notebooks under the Notebooks/Vision Transformers section. As of now, we have notebooks for object detection, image segmentation, and image classification. You can either train a model on a dataset that exists on 🤗 Hub or upload a dataset to a dataset repository and train a model on that. + +The model repository needs to have the following: + + +1. A properly filled model card, you can check out [here for more information](https://huggingface.co/docs/hub/en/model-cards). +2. If you trained a model with transformers and pushed it to Hub, the model card will be generated. In that case, edit the card and fill in more details. +3. Add the dataset’s ID to the model card to link the model repository to the dataset repository. + +### Creating a Space + +In this assignment section, you'll be building a Gradio-based application for your computer vision model and sharing it on 🤗 Spaces. Learn more about these tasks using the following resources: + +- [Getting started with Gradio](https://huggingface.co/learn/nlp-course/chapter9/1?fw=pt#introduction-to-gradio) +- [How to share your application on 🤗 Spaces](https://huggingface.co/learn/nlp-course/chapter9/4?fw=pt) + +## Certification 🥇 + +Once you've finished the assignments — Training/fine-tuning a Model and Creating a Space — please complete the [form](https://forms.gle/isiVSw59oiiHP6pN9) with your name, email, and links to your model and Space repositories to receive your certificate. + +## Join the community! + +We invite you to be a part of [our active and supportive Discord community](http://hf.co/join/discord), where engaging conversations and shared interests flourish every day and where this course started. You will find peers with whom you can exchange ideas and resources. It is your source to collaborate, get feedback, and ask questions! + +It is also a good way to motivate yourself to follow the course. Joining our community is an excellent way to stay engaged. Who knows what is the next thing we will build together? + +As AI continues to advance, so does the quality of our discussions and the diversity of perspectives within our community. Upon becoming a member, you'll have an opportunity to connect with fellow course participants, exchange ideas, and collaborate with others. Moreover, the contributors to this course are active on Discord and might help you when needed. Join us now! + +## Computer Vision Channels + +There are many channels focused on various topics on our Discord server. You will find people discussing papers, organizing events, sharing their projects and ideas, brainstorming, and so much more. + +As a computer vision course learner, you may find the following set of channels particularly relevant: + +- `#computer-vision`: a catch-all channel for everything related to computer vision +- `#cv-study-group`: a place to exchange ideas, ask questions about specific posts and start discussions +- `#3d`: a channel to discuss aspects of computer vision specific to 3D computer vision + +If you are interested in generative AI, we also invite you to join all channels related to the Diffusion Models: #core-announcements, #discussions, #dev-discussions, and #diff-i-made-this. + +## What you will learn + +The course is composed of theory, practical tutorials, and engaging challenges. + +- **Theory Part** : This section covers the theoretical principles of computer vision, explained in detail with practical examples. +- **Hands-on Tutorials** : You will learn how to train and apply key computer vision models using Google Colab notebooks. + +Throughout this course, we will cover everything from the basics to the latest advancements in computer vision. It is structured to include various foundational topics, giving you a comprehensive understanding of what makes computer vision so impactful today. + +## Pre-requisites + +Before beginning this course, make sure that you have some experience with Python programming and are familiar with transformers, machine learning, and neural networks. If these are new to you, consider reviewing the [first unit of the Hugging Face NLP course](https://huggingface.co/learn/nlp-course/chapter1/3?fw=pt). While a strong knowledge of pre-processing techniques and mathematical operations like convolutions is beneficial, they are not prerequisites. + +## Course Structure + +The course is organized into multiple units, covering the fundamentals and delving into an in-depth exploration of state-of-the-art models. + +- **Unit 1 - Fundamentals of Computer Vision** : this unit covers the essential concepts to get started with computer vision: the need for computer vision, the field's basics, and its applications. Explore image fundamentals, formation, and preprocessing, along with key aspects of feature extraction. +- **Unit 2 - Convolutional Neural Networks (CNNs)** : delve into the world of CNNs, understanding their general architecture, key concepts, and common pre-trained models. Learn how to apply transfer learning and fine-tuning to adapt CNNs for various tasks. +- **Unit 3 - Vision Transformers** : explore transformer architecture in the context of computer vision and learn how they compare to CNNs. Understand common vision transformers such as Swin, DETR, and CVT, along with techniques for transfer learning and fine-tuning. +- **Unit 4 - Multimodal Models** : understand the fusion of text and vision by exploring multimodal tasks like image-to-text and text-to-image. Study models such as CLIP and its relatives (GroupViT, BLIPM, Owl-VIT), and master transfer learning techniques for multimodal tasks. +- **Unit 5 - Generative Models** : explore generative models, including GANs, VAEs, and diffusion models. Learn about their differences and applications in tasks such as text-to-image, image-to-image, and inpainting. +- **Unit 6 - Basic Computer Vision Tasks** : cover fundamental tasks like image classification, object detection, and segmentation and the models used in them (YOLO, SAM). Gain insights into metrics and practical applications for these tasks. +- **Unit 7 - Video and Video Processing** : examine the characteristics of videos, the role of video processing, and the challenges compared to image processing. Explore temporal continuity, motion estimation, and practical applications in video processing. +- **Unit 8 - 3D Vision, Scene Rendering, and Reconstruction** : delve into the complexities of three-dimensional vision, exploring concepts like Nerf and GQN for scene rendering and reconstruction. Understand the challenges and applications of 3D vision in computer vision, and how it provides an even more comprehensive view of spatial information. +- **Unit 9 - Model Optimization** : explore the critical aspects of model optimization. Cover techniques such as model compression, deployment considerations, and the usage of tools and frameworks. Include topics topics like distillation, pruning, and TinyML for efficient model deployment. +- **Unit 10 - Synthetic Data Creation** : discover the importance of synthetic data creation using deep generative models. Explore methods like point clouds and diffusion models and investigate major synthetic datasets and their applications in computer vision. +- **Unit 11 - Zero Shot Computer Vision** : delve into the realm of zero-shot learning in computer vision, covering aspects of generalization, transfer learning, and its applications in tasks such as zero-shot recognition and image segmentation. Explore the relationship between zero-shot learning and transfer learning across various computer vision domains. +- **Unit 12 - Ethics and Biases in Computer Vision** : understand the ethical considerations specific to computer vision. Explore why ethics matter, how biases can infiltrate AI models, and the types of biases prevalent in these domains. Learn how to do bias evaluation and mitigation strategies, emphasizing responsible development and deployment of AI technologies. +- **Unit 13 - Outlook and Emerging Trends** : explore current trends and emerging architectures . Delve into innovative approaches like Retentive Network, Hiera, Hyena, I-JEPA, and Retention Vision Models. + +## Meet our team + +This course is made by the Hugging Face Community with love 💜! Join us by adding your contribution [on GitHub](https://github.com/johko/computer-vision-course). +Our goal was to create a computer vision course that is beginner-friendly and that could act as a resource for others. Around 60+ people from all over the world joined forces to make this project happen. Here we give them credit: + +**Unit 1 - Fundamentals of Computer Vision** + +- Reviewers: [Ratan Prasad](https://github.com/ratan), [Ameed Taylor](https://github.com/atayloraerospace), [Sergio Paniego](https://github.com/sergiopaniego) +- Writers: [Seshu Pavan Mutyala](https://github.com/seshupavan), [Isabella Bicalho-Frazeto](https://github.com/bellabf), [Aman Kapoor](https://github.com/aman06012003), [Tiago Comassetto Fróes](https://github.com/froestiago), [Aditya Mishra](https://github.com/adityaiiitr), [Kerem Delikoyun](https://github.com/krmdel), [Ker Lee Yap](https://github.com/klyap), [Kathy Fahnline](https://github.com/kfahn22), [Ameed Taylor](https://github.com/atayloraerospace) + +**Unit 2 - Convolutional Neural Networks (CNNs)** + +- Reviewers: [Ratan Prasad](https://github.com/ratan), [Mohammed Hamdy](https://github.com/mmhamdy), [Sezan](https://github.com/sezan92), [Joshua Adrian Cahyono](https://github.com/JvThunder), [Murtaza Nazir](https://github.com/themurtazanazir), [Albert Kao](https://github.com/albertkao227), [Sitam Meur](https://github.com/sitamgithub-MSIT), [Antonis Stellas](https://github.com/AntonisCSt), [Sergio Paniego](https://github.com/sergiopaniego) +- Writers: [Emre Albayrak](https://github.com/emre570), [Caroline Shamiso Chitongo](https://github.com/ShamieCC), [Sezan](https://github.com/sezan92), [Joshua Adrian Cahyono](https://github.com/JvThunder), [Murtaza Nazir](https://github.com/themurtazanazir), [Albert Kao](https://github.com/albertkao227), [Isabella Bicalho-Frazeto](https://github.com/bellabf), [Aman Kapoor](https://github.com/aman06012003), [Sitam Meur](https://github.com/sitamgithub-MSIT) + +**Unit 3 - Vision Transformers** + +- Reviewers: [Ratan Prasad](https://github.com/ratan), [Mohammed Hamdy](https://github.com/mmhamdy), [Ameed Taylor](https://github.com/atayloraerospace), [Sezan](https://github.com/sezan92) +- Writers: [Surya Guthikonda](https://github.com/SuryaKrishna02), [Ker Lee Yap](https://github.com/klyap), [Anindyadeep Sannigrahi](https://bento.me/anindyadeep), [Celina Hanouti](https://github.com/hanouticelina), [Malcolm Krolick](https://github.com/Mkrolick), [Alvin Li](https://github.com/alvanli), [Shreyas Daniel Gaddam](https://shreydan.github.io), [Anthony Susevski](https://github.com/asusevski), [Alan Ahmet](https://github.com/alanahmet), [Ghassen Fatnassi](https://github.com/ghassen-fatnassi) + +**Unit 4 - Multimodal Models** + +- Reviewers: [Ratan Prasad](https://github.com/ratan), [Snehil Sanyal](https://github.com/snehilsanyal), [Mohammed Hamdy](https://github.com/mmhamdy), [Charchit Sharma](https://github.com/charchit7), [Ameed Taylor](https://github.com/atayloraerospace), [Isabella Bicalho-Frazeto](https://github.com/bellabf) +- Writers: [Snehil Sanyal](https://github.com/snehilsanyal), [Surya Guthikonda](https://github.com/SuryaKrishna02), [Mateusz Dziemian](https://github.com/mattmdjaga), [Charchit Sharma](https://github.com/charchit7), [Evstifeev Stepan](https://github.com/minemile), [Jeremy Kespite](https://github.com/jeremy-k3/), [Isabella Bicalho-Frazeto](https://github.com/bellabf), [Pedro Gabriel Gengo Lourenco](https://github.com/pedrogengo) + +**Unit 5 - Generative Models** + +- Reviewers: [Ratan Prasad](https://github.com/ratan), [William Bonvini](https://github.com/WilliamBonvini), [Mohammed Hamdy](https://github.com/mmhamdy), [Ameed Taylor](https://github.com/atayloraerospace)- +- Writers: [Jeronim Matijević](github.com/jere357), [Mateusz Dziemian](https://github.com/mattmdjaga), [Charchit Sharma](https://github.com/charchit7), [Muhammad Waseem](https://github.com/hwaseem04) + +**Unit 6 - Basic Computer Vision Tasks** + +- Reviewers: [Adhi Setiawan](https://github.com/adhiiisetiawan) +- Writers: [Adhi Setiawan](https://github.com/adhiiisetiawan), [Bastien Pouëssel](https://github.com/Skower) + +**Unit 7 - Video and Video Processing** + +- Reviewers: [Ameed Taylor](https://github.com/atayloraerospace), [Isabella Bicalho-Frazeto](https://github.com/bellabf) +- Writers: [Diwakar Basnet](https://github.com/DiwakarBasnet), [Chulhwa Han](https://github.com/cjfghk5697), [Woojun Jung](https://github.com/jungnerd), [Jiwook Han](https://github.com/mreraser), [Mingi Kim](https://github.com/1kmmk1) + +**Unit 8 - 3D Vision, Scene Rendering, and Reconstruction** + +- Reviewers: [Ratan Prasad](https://github.com/ratan), [William Bonvini](https://github.com/WilliamBonvini), [Mohammed Hamdy](https://github.com/mmhamdy), [Adhi Setiawan](https://github.com/adhiiisetiawan), [Ameed Taylor](https://github.com/atayloraerospace0) +- Writers: [John Fozard](https://github.com/jfozard), [Vasu Gupta](https://github.com/vasugupta9), [Psetinek](https://github.com/psetinek) + +**Unit 9 - Model Optimization** + +- Reviewers: [Ratan Prasad](https://github.com/ratan), [Mohammed Hamdy](https://github.com/mmhamdy), [Adhi Setiawan](https://github.com/adhiiisetiawan), [Ameed Taylor](https://github.com/atayloraerospace) +- Writer: [Adhi Setiawan](https://github.com/adhiiisetiawan) + +**Unit 10 - Synthetic Data Creation** + +- Reviewers: [Mohammed Hamdy](https://github.com/mmhamdy), [Ameed Taylor](https://github.com/atayloraerospace), [Bhavesh Misra](https://github.com/Zekrom-7780) +- Writers: [William Bonvini](https://github.com/WilliamBonvini), [Alper Balbay](https://github.com/alperiox), [Madhav Kumar](https://github.com/miniMaddy), [Bhavesh Misra](https://github.com/Zekrom-7780), [Kathy Fahnline](https://github.com/kfahn22) + +**Unit 11 - Zero Shot Computer Vision** + +- Reviewers: [Ratan Prasad](https://github.com/ratan), [Mohammed Hamdy](https://github.com/mmhamdy), [Albert Kao](https://github.com/albertkao227), [Isabella Bicalho-Frazeto](https://github.com/bellabf) +- Writers: [Mohammed Hamdy](https://github.com/mmhamdy), [Albert Kao](https://github.com/albertkao227) + +**Unit 12 - Ethics and Biases in Computer Vision** + +- Reviewers: [Ratan Prasad](https://github.com/ratan), [Mohammed Hamdy](https://github.com/mmhamdy), [Charchit Sharma](https://github.com/charchit7), [Adhi Setiawan](https://github.com/adhiiisetiawan), [Ameed Taylor](https://github.com/atayloraerospace), [Bhavesh Misra](https://github.com/Zekrom-7780) +- Writers: [Snehil Sanyal](https://github.com/snehilsanyal), [Bhavesh Misra](https://github.com/Zekrom-7780) + +**Unit 13 - Outlook and Emerging Trends** + +- Reviewers: [Ratan Prasad](https://github.com/ratan), [Ameed Taylor](https://github.com/atayloraerospace), [Mohammed Hamdy](https://github.com/mmhamdy) +- Writers: [Farros Alferro](https://github.com/farrosalferro), [Mohammed Hamdy](https://github.com/mmhamdy), [Louis Ulmer](https://github.com/lulmer), [Dario Wisznewer](https://github.com/dariowsz), [gonzachiar](https://github.com/gonzachiar) + +**Organisation Team** +[Merve Noyan](https://github.com/merveenoyan), [Adam Molnar](https://github.com/lunarflu), [Johannes Kolbe](https://github.com/johko) + +We are happy to have you here, let's get started! From cb0adde5141580741539da38a4b97c195ed05c76 Mon Sep 17 00:00:00 2001 From: Daniel Garcia Date: Fri, 27 Dec 2024 23:49:24 +0100 Subject: [PATCH 02/13] Adding half of the first translation. Checking preview --- chapters/es/unit0/welcome/notas.mdx | 5 ++++ chapters/es/unit0/welcome/welcome.mdx | 41 +++++++++++++-------------- 2 files changed, 25 insertions(+), 21 deletions(-) create mode 100644 chapters/es/unit0/welcome/notas.mdx diff --git a/chapters/es/unit0/welcome/notas.mdx b/chapters/es/unit0/welcome/notas.mdx new file mode 100644 index 000000000..4209ceea8 --- /dev/null +++ b/chapters/es/unit0/welcome/notas.mdx @@ -0,0 +1,5 @@ +//# Welcome to the Community Computer Vision Course *No pongo Visión por computador + + +//Dear learner, *Pongo participante aquí en lugar de estudiante/aprendiz + diff --git a/chapters/es/unit0/welcome/welcome.mdx b/chapters/es/unit0/welcome/welcome.mdx index 4a8709007..279848d64 100644 --- a/chapters/es/unit0/welcome/welcome.mdx +++ b/chapters/es/unit0/welcome/welcome.mdx @@ -1,40 +1,39 @@ -# Bienvenidos al curso comunitario de Visión Artificial! //# Welcome to the Community Computer Vision Course +# Bienvenida al curso comunitario de Visión Artificial +Querido participante, -Querido participante, //Dear learner, *Pongo participante aquí en lugar de estudiante/aprendiz +Bienvenid@ al **curso de visión artificial impulsado por la comunidad**. El campo de la visión artificial está revolucionando el mundo de muchas maneras, pasando por el desbloqueo de telefonos móviles a través de sistemas de reconocimiento facial, hasta el análisis de imagenes médicas para la detección de enfermedades, la vigilancia de la vida salvaje o la generación de nuevas imagenes. Juntos, nos sumergiremos en el fascinante mundo de visión artificial! -Welcome to the **community-driven course on computer vision**. Computer vision is revolutionizing our world in many ways, from unlocking phones with facial recognition to analyzing medical images for disease detection, monitoring wildlife, and creating new images. Together, we'll dive into the fascinating world of computer vision! +En este curso cubriremos todo lo relacionado con visión artificial, desde los conceptos más básicos hasta los últimos avances en este campo. Esta estructurado y diseñado para incluir temas fundacionales, de tal manera que sea accesible y agradable para todo el mundo. Nos encanta que hayas decidido acompañarnos en este fantástico viaje! -Throughout this course, we'll cover everything from the basics to the latest advancements in computer vision. It's structured to include various foundational topics, making it friendly and accessible for everyone. We're delighted to have you join us for this exciting journey! +En esta página encontrarás cómo unirte a la comunidad de participantes, subir tus archivos, obtener la certificación, y otros detalles sobre el curso! -On this page, you can find how to join the learners community, make a submission and get a certificate, and more details about the course! +## Tareas 📄 -## Assignment 📄 +Para obtener la certificación al terminar el curso, tendrás que realizar las siguientes tareas: -To obtain your certification for completing the course, complete the following assignments: +1. Entrenar/afinar un modelo +2. Crear una aplicación y subirla/hostearla en un espacio de Hugging Face (Hugging Face Spaces) -1. Training/fine-tuning a model -2. Building an application and hosting it on Hugging Face Spaces +### Entrenar/Afinar un modelo -### Training/fine-tuning a Model +Para ello, encontrarás notebooks debajo de la sección de Notebooks/Vision Transformers. De momento, existen notebooks para detección de objetos, segmentación de imagenes y clasificación de imágenes. Puedes tanto entrenar un modelo en un dataset que ya exista en el repositorio de 🤗 o subir un dataset a un repositorio privado y entrenar un modelo sobre ese mismo dataset. -There are notebooks under the Notebooks/Vision Transformers section. As of now, we have notebooks for object detection, image segmentation, and image classification. You can either train a model on a dataset that exists on 🤗 Hub or upload a dataset to a dataset repository and train a model on that. +El repositorio de modelos necesita contar con lo siguiente: -The model repository needs to have the following: +1. Una tarjeta de modelo rellenada correctamente, puedes dirigirte [aquí para más información sobre como rellenarla](https://huggingface.co/docs/hub/en/model-cards). +2. Si has entrenado un modelo utilizando la librería de transformers y lo has subido al repositorio de HF, la tarjeta del modelo se generará automáticamente. En ese caso, edita la tarjeta y rellena los detalles que faltan. +3. Añade el ID del dataset a la tarjeta del modelo para enlazar el repositorio del modelo al repositorio del dataset. -1. A properly filled model card, you can check out [here for more information](https://huggingface.co/docs/hub/en/model-cards). -2. If you trained a model with transformers and pushed it to Hub, the model card will be generated. In that case, edit the card and fill in more details. -3. Add the dataset’s ID to the model card to link the model repository to the dataset repository. +### Creando un Espacio -### Creating a Space +En esta parte de la tarea construirás una aplicación basada en Gradio para tu modelo de visión artificial, la cual compartirás posteriormente en los espacios de 🤗. Explora más info sobre estas tareas en los siguientes recursos: -In this assignment section, you'll be building a Gradio-based application for your computer vision model and sharing it on 🤗 Spaces. Learn more about these tasks using the following resources: +- [Empezando con Gradio](https://huggingface.co/learn/nlp-course/chapter9/1?fw=pt#introduction-to-gradio) +- [Cómo compartir tu aplicación en los espacios de 🤗](https://huggingface.co/learn/nlp-course/chapter9/4?fw=pt) -- [Getting started with Gradio](https://huggingface.co/learn/nlp-course/chapter9/1?fw=pt#introduction-to-gradio) -- [How to share your application on 🤗 Spaces](https://huggingface.co/learn/nlp-course/chapter9/4?fw=pt) - -## Certification 🥇 +## Certificación 🥇 Once you've finished the assignments — Training/fine-tuning a Model and Creating a Space — please complete the [form](https://forms.gle/isiVSw59oiiHP6pN9) with your name, email, and links to your model and Space repositories to receive your certificate. From d1356f82cf16913389f93176225ceeac3a0c6db3 Mon Sep 17 00:00:00 2001 From: Daniel Garcia Date: Sun, 29 Dec 2024 00:28:12 +0100 Subject: [PATCH 03/13] Adding first translation draft for welcome.mdx and tableofcontents.mdx --- chapters/es/unit0/welcome/TableOfContents.mdx | 36 ++-- chapters/es/unit0/welcome/notas.mdx | 5 - chapters/es/unit0/welcome/welcome.mdx | 159 +++++++++--------- 3 files changed, 97 insertions(+), 103 deletions(-) delete mode 100644 chapters/es/unit0/welcome/notas.mdx diff --git a/chapters/es/unit0/welcome/TableOfContents.mdx b/chapters/es/unit0/welcome/TableOfContents.mdx index 6fb3ac593..6f4f9bd38 100644 --- a/chapters/es/unit0/welcome/TableOfContents.mdx +++ b/chapters/es/unit0/welcome/TableOfContents.mdx @@ -1,16 +1,16 @@ -# Table of Contents for Notebooks +# Lista de contenidos para los notebooks -Here you can find a list of notebooks that contain accompanying and hands-on material to the chapters you find in this course. -Feel free to browse them at your own speed and interest. +Aquí puedes encontrar una lista de notebooks que contienen material de apoyo y máterial práctico de los capítulos que encontrarás en este curso. +Sientete libre de revisarlos a tu ritmo y necesidad. -| Chapter Title | Notebooks | Colabs | +| Título del capítulo | Notebooks | Colabs | | ------------------------------------------------------- | ------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------- | ---------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------- | -| Unit 0 - Welcome | No Notebook | No Colab | -| Unit 1 - Fundamentals | No Notebook | No Colab | -| Unit 2 - Convolutional Neural Networks | [Transfer Learning with VGG19](https://github.com/johko/computer-vision-course/blob/main/notebooks/Unit%202%20-%20Convolutional%20Neural%20Networks/transfer_learning_vgg19.ipynb) | [Transfer Learning with VGG](https://colab.research.google.com/github/fariddinar/computer-vision-course/blob/main/notebooks/Unit%202%20-%20Convolutional%20Neural%20Networks/transfer_learning_vgg19.ipynb) | +| Unidad 0 - Bienvenid@ | Sin Notebook | Sin Colab | +| Unidad 1 - Conceptos fundamentales | Sin Notebook | Sin Colab | +| Unidad 2 - Redes Neuronales Convolucionales | [Transfer Learning with VGG19](https://github.com/johko/computer-vision-course/blob/main/notebooks/Unit%202%20-%20Convolutional%20Neural%20Networks/transfer_learning_vgg19.ipynb) | [Transfer Learning with VGG](https://colab.research.google.com/github/fariddinar/computer-vision-course/blob/main/notebooks/Unit%202%20-%20Convolutional%20Neural%20Networks/transfer_learning_vgg19.ipynb) | | | [Using ResNet with timm](https://github.com/johko/computer-vision-course/blob/main/notebooks/Unit%202%20-%20Convolutional%20Neural%20Networks/timm_Resnet.ipynb) | [timm_Resnet](https://colab.research.google.com/github/fariddinar/computer-vision-course/blob/main/notebooks/Unit%202%20-%20Convolutional%20Neural%20Networks/timm_Resnet.ipynb) | -| Unit 3 - Vision Transformers | [Detection Transformer (DETR)](https://github.com/johko/computer-vision-course/blob/main/notebooks/Unit%203%20-%20Vision%20Transformers/DETR.ipynb) | [Detection Transformer (DETR)](https://colab.research.google.com/github/fariddinar/computer-vision-course/blob/main/notebooks/Unit%203%20-%20Vision%20Transformers/DETR.ipynb) | +| Unidad 3 - Transformers para Visión | [Detection Transformer (DETR)](https://github.com/johko/computer-vision-course/blob/main/notebooks/Unit%203%20-%20Vision%20Transformers/DETR.ipynb) | [Detection Transformer (DETR)](https://colab.research.google.com/github/fariddinar/computer-vision-course/blob/main/notebooks/Unit%203%20-%20Vision%20Transformers/DETR.ipynb) | | | [Fine-tuning Vision Transformers for Object Detection](https://github.com/johko/computer-vision-course/blob/main/notebooks/Unit%203%20-%20Vision%20Transformers/Fine-tuning%20Vision%20Transformers%20for%20Object%20detection.ipynb) | [Fine-tuning Vision Transformers for Object Detection](https://colab.research.google.com/github/fariddinar/computer-vision-course/blob/main/notebooks/Unit%203%20-%20Vision%20Transformers/Fine-tuning%20Vision%20Transformers%20for%20Object%20detection.ipynb) | | | [Knowledge Distillation](https://github.com/johko/computer-vision-course/blob/main/notebooks/Unit%203%20-%20Vision%20Transformers/KnowledgeDistillation.ipynb) | [Knowledge Distillation](https://colab.research.google.com/github/fariddinar/computer-vision-course/blob/main/notebooks/Unit%203%20-%20Vision%20Transformers/KnowledgeDistillation.ipynb) | | | [LoRA Fine-tuning for Image Classification](https://github.com/johko/computer-vision-course/blob/main/notebooks/Unit%203%20-%20Vision%20Transformers/LoRA-Image-Classification.ipynb) | [LoRA Fine-tuning for Image Classification](https://colab.research.google.com/github/fariddinar/computer-vision-course/blob/main/notebooks/Unit%203%20-%20Vision%20Transformers/LoRA-Image-Classification.ipynb) | @@ -18,28 +18,28 @@ Feel free to browse them at your own speed and interest. | | [Transfer Learning for Image Classification](https://github.com/johko/computer-vision-course/blob/main/notebooks/Unit%203%20-%20Vision%20Transformers/transfer-learning-image-classification.ipynb) | [Transfer Learning for Image Classification](https://colab.research.google.com/github/fariddinar/computer-vision-course/blob/main/notebooks/Unit%203%20-%20Vision%20Transformers/transfer-learning-image-classification.ipynb) | | | [Transfer Learning for Image Segmentation](https://github.com/johko/computer-vision-course/blob/main/notebooks/Unit%203%20-%20Vision%20Transformers/transfer-learning-segmentation.ipynb) | [Transfer Learning for Image Segmentation](https://colab.research.google.com/github/fariddinar/computer-vision-course/blob/main/notebooks/Unit%203%20-%20Vision%20Transformers/transfer-learning-segmentation.ipynb) | | | [Swin Transformer](https://github.com/johko/computer-vision-course/blob/main/notebooks/Unit%203%20-%20Vision%20Transformers/Swin.ipynb) | [Swin Transformer](https://colab.research.google.com/github/fariddinar/computer-vision-course/blob/main/notebooks/Unit%203%20-%20Vision%20Transformers/Swin.ipynb) | -| Unit 4 - Multimodal Models | [Clip Crop](https://github.com/johko/computer-vision-course/blob/main/notebooks/Unit%204%20-%20Multimodal%20Models/ClipCrop.ipynb) | [Clip Crop](https://colab.research.google.com/github/fariddinar/computer-vision-course/blob/main/notebooks/Unit%204%20-%20Multimodal%20Models/ClipCrop.ipynb) | +| Unidad 4 - Modelos multimodales | [Clip Crop](https://github.com/johko/computer-vision-course/blob/main/notebooks/Unit%204%20-%20Multimodal%20Models/ClipCrop.ipynb) | [Clip Crop](https://colab.research.google.com/github/fariddinar/computer-vision-course/blob/main/notebooks/Unit%204%20-%20Multimodal%20Models/ClipCrop.ipynb) | | | [Fine-tuning CLIP](https://github.com/johko/computer-vision-course/blob/main/notebooks/Unit%204%20-%20Multimodal%20Models/Clip_finetune.ipynb) | [Fine-tuning CLIP](https://colab.research.google.com/github/fariddinar/computer-vision-course/blob/main/notebooks/Unit%204%20-%20Multimodal%20Models/Clip_finetune.ipynb) | | | [Clustering with CLIP](https://github.com/johko/computer-vision-course/blob/main/notebooks/Unit%204%20-%20Multimodal%20Models/CLIP%20and%20relatives/Clustering%20with%20CLIP.ipynb) | [Clustering with CLIP](https://colab.research.google.com/github/fariddinar/computer-vision-course/blob/main/notebooks/Unit%204%20-%20Multimodal%20Models/CLIP%20and%20relatives/Clustering%20with%20CLIP.ipynb) | | | [Image Classification with CLIP](https://github.com/johko/computer-vision-course/blob/main/notebooks/Unit%204%20-%20Multimodal%20Models/CLIP%20and%20relatives/Image%20classification%20with%20CLIP.ipynb) | [Image Classification with CLIP](https://colab.research.google.com/github/fariddinar/computer-vision-course/blob/main/notebooks/Unit%204%20-%20Multimodal%20Models/CLIP%20and%20relatives/Image%20classification%20with%20CLIP.ipynb) | | | [Image Retrieval with Prompts](https://github.com/johko/computer-vision-course/blob/main/notebooks/Unit%204%20-%20Multimodal%20Models/CLIP%20and%20relatives/Image_retrieval_with_prompts.ipynb) | [Image Retrieval with Prompts](https://colab.research.google.com/github/fariddinar/computer-vision-course/blob/main/notebooks/Unit%204%20-%20Multimodal%20Models/CLIP%20and%20relatives/Image_retrieval_with_prompts.ipynb) | | | [Image Similarity](https://github.com/johko/computer-vision-course/blob/main/notebooks/Unit%204%20-%20Multimodal%20Models/CLIP%20and%20relatives/Image_similarity.ipynb) | [Image Similarity](https://colab.research.google.com/github/fariddinar/computer-vision-course/blob/main/notebooks/Unit%204%20-%20Multimodal%20Models/CLIP%20and%20relatives/Image_similarity.ipynb) | -| Unit 5 - Generative Models | No Notebook | No Colab | -| Unit 6 - Basic CV Tasks | [Fine-tune SAM on Custom Dataset]() | [Fine-tune SAM on Custom Dataset]() | -| Unit 7 - Video and Video Processing | [Fine-tune ViViT for Video Classification](https://github.com/DiwakarBasnet/computer-vision-course/blob/unit-7_Video_and_VideoProcessing/notebooks/Unit%207%20-%20Video%20and%20Video%20Processing/Vivit_Fine_tuned_Video_Classification.ipynb) | [Fine-tune ViViT for Video Classification](https://github.com/DiwakarBasnet/computervisioncourse/blob/unit7_Video_and_VideoProcessing/notebooks/Unit%207%20%20Video%20and%20Video%20Processing/Vivit_Fine_tuned_Video_Classification.ipynb) | -| Unit 8 - 3D Vision, Scene Rendering, and Reconstruction | No Notebook | No Colab | -| Unit 9 - Model Optimization | [Edge TPU](https://github.com/johko/computer-vision-course/blob/main/notebooks/Unit%209%20-%20Model%20Optimization/edge_tpu.ipynb) | [Edge TPU](https://colab.research.google.com/github/fariddinar/computer-vision-course/blob/main/notebooks/Unit%209%20-%20Model%20Optimization/edge_tpu.ipynb) | +| Unidad 5 - Modelos generativos | Sin Notebook | No Colab | +| Unidad 6 - Tareas básicas de Visión Artificial | [Fine-tune SAM on Custom Dataset]() | [Fine-tune SAM on Custom Dataset]() | +| Unidad 7 - Video y procesamiento de video | [Fine-tune ViViT for Video Classification](https://github.com/DiwakarBasnet/computer-vision-course/blob/unit-7_Video_and_VideoProcessing/notebooks/Unit%207%20-%20Video%20and%20Video%20Processing/Vivit_Fine_tuned_Video_Classification.ipynb) | [Fine-tune ViViT for Video Classification](https://github.com/DiwakarBasnet/computervisioncourse/blob/unit7_Video_and_VideoProcessing/notebooks/Unit%207%20%20Video%20and%20Video%20Processing/Vivit_Fine_tuned_Video_Classification.ipynb) | +| Unidad 8 - Visión para 3D, Renderización y reconstrucción de escenas | Sin Notebook | No Colab | +| Unidad 9 - Optimización de modelos | [Edge TPU](https://github.com/johko/computer-vision-course/blob/main/notebooks/Unit%209%20-%20Model%20Optimization/edge_tpu.ipynb) | [Edge TPU](https://colab.research.google.com/github/fariddinar/computer-vision-course/blob/main/notebooks/Unit%209%20-%20Model%20Optimization/edge_tpu.ipynb) | | | [ONNX](https://github.com/johko/computer-vision-course/blob/main/notebooks/Unit%209%20-%20Model%20Optimization/onnx.ipynb) | [ONNX](https://colab.research.google.com/github/fariddinar/computer-vision-course/blob/main/notebooks/Unit%209%20-%20Model%20Optimization/onnx.ipynb) | | | [OpenVINO](https://github.com/johko/computer-vision-course/blob/main/notebooks/Unit%209%20-%20Model%20Optimization/openvino.ipynb) | [OpenVINO](https://colab.research.google.com/github/fariddinar/computer-vision-course/blob/main/notebooks/Unit%209%20-%20Model%20Optimization/openvino.ipynb) | | | [Optimum](https://github.com/johko/computer-vision-course/blob/main/notebooks/Unit%209%20-%20Model%20Optimization/optimum.ipynb) | [Optimum](https://colab.research.google.com/github/fariddinar/computer-vision-course/blob/main/notebooks/Unit%209%20-%20Model%20Optimization/optimum.ipynb) | | | [TensorRT](https://github.com/johko/computer-vision-course/blob/main/notebooks/Unit%209%20-%20Model%20Optimization/tensorrt.ipynb) | [TensorRT](https://colab.research.google.com/github/fariddinar/computer-vision-course/blob/main/notebooks/Unit%209%20-%20Model%20Optimization/tensorrt.ipynb) | | | [TMO](https://github.com/johko/computer-vision-course/blob/main/notebooks/Unit%209%20-%20Model%20Optimization/tmo.ipynb) | [TMO](https://colab.research.google.com/github/fariddinar/computer-vision-course/blob/main/notebooks/Unit%209%20-%20Model%20Optimization/tmo.ipynb) | | | [Torch](https://github.com/johko/computer-vision-course/blob/main/notebooks/Unit%209%20-%20Model%20Optimization/torch.ipynb) | [Torch](https://colab.research.google.com/github/fariddinar/computer-vision-course/blob/main/notebooks/Unit%209%20-%20Model%20Optimization/torch.ipynb) | -| Unit 10 - Synthetic Data Creation | [Dataset Labeling with OWLv2](https://github.com/johko/computer-vision-course/blob/main/notebooks/Unit%2010%20-%20Synthetic%20Data%20Creation/OWLV2_labeled_image_dataset_with_annotations.ipynb) | [Dataset Labeling with OWLv2](https://colab.research.google.com/github/fariddinar/computer-vision-course/blob/main/notebooks/Unit%2010%20-%20Synthetic%20Data%20Creation/OWLV2_labeled_image_dataset_with_annotations.ipynb) | +| Unidad 10 - Creación de datos sintéticos | [Dataset Labeling with OWLv2](https://github.com/johko/computer-vision-course/blob/main/notebooks/Unit%2010%20-%20Synthetic%20Data%20Creation/OWLV2_labeled_image_dataset_with_annotations.ipynb) | [Dataset Labeling with OWLv2](https://colab.research.google.com/github/fariddinar/computer-vision-course/blob/main/notebooks/Unit%2010%20-%20Synthetic%20Data%20Creation/OWLV2_labeled_image_dataset_with_annotations.ipynb) | | | [Generating Synthetic Lung Images](https://github.com/johko/computer-vision-course/blob/main/notebooks/Unit%2010%20-%20Synthetic%20Data%20Creation/Synthetic_lung_images_hf_course.ipynb) | [Generating Synthetic Lung Images](https://colab.research.google.com/github/fariddinar/computer-vision-course/blob/main/notebooks/Unit%2010%20-%20Synthetic%20Data%20Creation/Synthetic_lung_images_hf_course.ipynb) | | | [BlenderProc Examples](https://github.com/johko/computer-vision-course/blob/main/notebooks/Unit%2010%20-%20Synthetic%20Data%20Creation/blenderproc_examples.ipynb) | [BlenderProc Examples](https://colab.research.google.com/github/fariddinar/computer-vision-course/blob/main/notebooks/Unit%2010%20-%20Synthetic%20Data%20Creation/blenderproc_examples.ipynb) | | | [Image Labeling with BLIP-2](https://github.com/johko/computer-vision-course/blob/main/notebooks/Unit%2010%20-%20Synthetic%20Data%20Creation/image_labeling_BLIP_2.ipynb) | [Image Labeling with BLIP-2](https://colab.research.google.com/github/fariddinar/computer-vision-course/blob/main/notebooks/Unit%2010%20-%20Synthetic%20Data%20Creation/image_labeling_BLIP_2.ipynb) | | | [Synthetic Data Creation with SDXL Turbo](https://github.com/johko/computer-vision-course/blob/main/notebooks/Unit%2010%20-%20Synthetic%20Data%20Creation/synthetic_data_creation_sdxl_turbo.ipynb) | [Synthetic Data Creation with SDXL Turbo](https://colab.research.google.com/github/fariddinar/computer-vision-course/blob/main/notebooks/Unit%2010%20-%20Synthetic%20Data%20Creation/synthetic_data_creation_sdxl_turbo.ipynb) | -| Unit 11 - Zero Shot Computer Vision | No Notebook | No Colab | -| Unit 12 - Ethics and Biases | No Notebook | No Colab | -| Unit 13 - Outlook | No Notebook | No Colab | +| Unidad 11 - Visión Artificial de Zero Shot | Sin Notebook | No Colab | +| Unidad 12 - Ética y sesgo en Visión Artificial | Sin Notebook | No Colab | +| Unidad 13 - Futuro y tendencias emergentes | Sin Notebook | No Colab | diff --git a/chapters/es/unit0/welcome/notas.mdx b/chapters/es/unit0/welcome/notas.mdx deleted file mode 100644 index 4209ceea8..000000000 --- a/chapters/es/unit0/welcome/notas.mdx +++ /dev/null @@ -1,5 +0,0 @@ -//# Welcome to the Community Computer Vision Course *No pongo Visión por computador - - -//Dear learner, *Pongo participante aquí en lugar de estudiante/aprendiz - diff --git a/chapters/es/unit0/welcome/welcome.mdx b/chapters/es/unit0/welcome/welcome.mdx index 279848d64..05d4c9403 100644 --- a/chapters/es/unit0/welcome/welcome.mdx +++ b/chapters/es/unit0/welcome/welcome.mdx @@ -1,8 +1,8 @@ -# Bienvenida al curso comunitario de Visión Artificial +# Bienvenid@ al curso comunitario de Visión Artificial Querido participante, -Bienvenid@ al **curso de visión artificial impulsado por la comunidad**. El campo de la visión artificial está revolucionando el mundo de muchas maneras, pasando por el desbloqueo de telefonos móviles a través de sistemas de reconocimiento facial, hasta el análisis de imagenes médicas para la detección de enfermedades, la vigilancia de la vida salvaje o la generación de nuevas imagenes. Juntos, nos sumergiremos en el fascinante mundo de visión artificial! +Bienvenid@ al **curso de visión artificial impulsado por la comunidad de 🤗**. El campo de la visión artificial está revolucionando el mundo de muchas maneras, desde por el desbloqueo de telefonos móviles a través de sistemas de reconocimiento facial, pasando por el análisis de imagenes médicas para la detección de enfermedades, hasta la vigilancia de la vida salvaje o la generación de nuevas imagenes. Juntos, nos sumergiremos en el fascinante mundo de la visión artificial! En este curso cubriremos todo lo relacionado con visión artificial, desde los conceptos más básicos hasta los últimos avances en este campo. Esta estructurado y diseñado para incluir temas fundacionales, de tal manera que sea accesible y agradable para todo el mundo. Nos encanta que hayas decidido acompañarnos en este fantástico viaje! @@ -35,130 +35,129 @@ En esta parte de la tarea construirás una aplicación basada en Gradio para tu ## Certificación 🥇 -Once you've finished the assignments — Training/fine-tuning a Model and Creating a Space — please complete the [form](https://forms.gle/isiVSw59oiiHP6pN9) with your name, email, and links to your model and Space repositories to receive your certificate. +Una vez que hayas finalizado las tareas - Entrenar/Afinar un modelo y crear un espacio -, por favor, rellena el [formulario](https://forms.gle/isiVSw59oiiHP6pN9) con tu nombre, correo, y links a los repositorios de tu modelo y espacio para recivir tu certificado. -## Join the community! +## Únete a la comunidad! -We invite you to be a part of [our active and supportive Discord community](http://hf.co/join/discord), where engaging conversations and shared interests flourish every day and where this course started. You will find peers with whom you can exchange ideas and resources. It is your source to collaborate, get feedback, and ask questions! +Te invitamos a ser parte de [nuestra comunidad activa y amistosa en Discord](http://hf.co/join/discord), donde nació este curso y donde podrás encontrar conversaciones fascinantes e intereses comunes con otros miembros. Allí encontrarás otros participantes con los que intercambiar ideas y recursos. Es tu fuente para colaborar con otros, redibir feedback y preguntar dudas! -It is also a good way to motivate yourself to follow the course. Joining our community is an excellent way to stay engaged. Who knows what is the next thing we will build together? +También es una manera de motivarte para seguir el curso. Unirse a nuestra comunidad es una manera estupenda de manterse al día. Quién sabe que será lo próximo que construiremos juntos? -As AI continues to advance, so does the quality of our discussions and the diversity of perspectives within our community. Upon becoming a member, you'll have an opportunity to connect with fellow course participants, exchange ideas, and collaborate with others. Moreover, the contributors to this course are active on Discord and might help you when needed. Join us now! +Mientras la Inteligencia Artificial continúa avanzando, también lo hace la calidad de nuestras discusiones y la diversidad de las perspectivas dentro de nuestra comunidad. Al convertirte en miembro, tendrás la oportunidad de conectar con otros participantes del curso, intercambiar ideas, y colaborar con otros. Además, los creadores y colaboradores de este curso están atentos y activos en Discord, y podrían ayudarte en caso de que lo necesitases. Únete ahora! -## Computer Vision Channels +## Canales de Visión Artificial -There are many channels focused on various topics on our Discord server. You will find people discussing papers, organizing events, sharing their projects and ideas, brainstorming, and so much more. +Hay muchos canales en nuestro servidor de Discord, cada uno dedicado a temas distintos. Te encontrarás a gente hablando de artículos académicos, organizando eventos, compartiendo sus proyectos e ideas, compartiendo ideas y haciendo brainstorming y mucho más. -As a computer vision course learner, you may find the following set of channels particularly relevant: +Como participante del curso de Visión Artificial, puede que encuentres especialmente relevantes los siguientes canales: -- `#computer-vision`: a catch-all channel for everything related to computer vision -- `#cv-study-group`: a place to exchange ideas, ask questions about specific posts and start discussions -- `#3d`: a channel to discuss aspects of computer vision specific to 3D computer vision +- `#computer-vision`: un canal general para todo lo relacionado con Visión Artificial +- `#3d`: un canal para hablar de Visión Artificial especificamente aplicada a Visión Artificial en 3D. -If you are interested in generative AI, we also invite you to join all channels related to the Diffusion Models: #core-announcements, #discussions, #dev-discussions, and #diff-i-made-this. +Si estás interesado en Inteligencia Artificial Genrativa, también te invitamos a que te unas a todos los canales relacionados con modelos de Difusión: #core-announcements, #discussions, #dev-discussions, and #i-made-this. -## What you will learn +## Qué aprenderás -The course is composed of theory, practical tutorials, and engaging challenges. +Este curso está compuesto de teoría, tutoriales prácitocs y retos fascinantes. -- **Theory Part** : This section covers the theoretical principles of computer vision, explained in detail with practical examples. -- **Hands-on Tutorials** : You will learn how to train and apply key computer vision models using Google Colab notebooks. +- **Parte de teoría**: Esta sección cubre los principios teóricos de Visión Artificial, todos ellos explicados en detalle con ejemplos prácticos. +- **Tutoriales prácticos**: Aprenderás cómo entrenar y aplicar modelos relevantes de Visión Artificial utilizando notebooks de Google Collab. -Throughout this course, we will cover everything from the basics to the latest advancements in computer vision. It is structured to include various foundational topics, giving you a comprehensive understanding of what makes computer vision so impactful today. +A lo largo de este curso, cubriremos todo desde los conceptos básicos a los últimos avances en Visión Artificial. Esta estructurado de manera que cubre varios temas fundacionales, dándote una perspectiva y conocimiento en profundidad de porqué el uso de técnicas de Visión Artificial tiene tanto impacto en el mundo real. -## Pre-requisites +## Prerrequisitos -Before beginning this course, make sure that you have some experience with Python programming and are familiar with transformers, machine learning, and neural networks. If these are new to you, consider reviewing the [first unit of the Hugging Face NLP course](https://huggingface.co/learn/nlp-course/chapter1/3?fw=pt). While a strong knowledge of pre-processing techniques and mathematical operations like convolutions is beneficial, they are not prerequisites. +Antes de empezar el curso, asegúrate de contar con algo de experiencia programando en Python y conocer conceptos relacionados con transformers, machine learning y redes neuronales. Si cualquiera de estos conceptos es nuevo para ti, quizá sea bueno que repases [la primera unidad del curso de NLP de Hugging Face](https://huggingface.co/learn/nlp-course/chapter1/3?fw=pt). Tener un buen conocimiento de técnicas de pre-procesamiento y operaciones matemáticas es bueno, no son necesariamente prerrequisitos para este curso. -## Course Structure +## Estructura del curso -The course is organized into multiple units, covering the fundamentals and delving into an in-depth exploration of state-of-the-art models. +El curso está organizado en varias unidades, las cuales van desde lo fundamental hasta un repaso profundo de los modelos más avanzados (state-of-the-art models o SOTA) -- **Unit 1 - Fundamentals of Computer Vision** : this unit covers the essential concepts to get started with computer vision: the need for computer vision, the field's basics, and its applications. Explore image fundamentals, formation, and preprocessing, along with key aspects of feature extraction. -- **Unit 2 - Convolutional Neural Networks (CNNs)** : delve into the world of CNNs, understanding their general architecture, key concepts, and common pre-trained models. Learn how to apply transfer learning and fine-tuning to adapt CNNs for various tasks. -- **Unit 3 - Vision Transformers** : explore transformer architecture in the context of computer vision and learn how they compare to CNNs. Understand common vision transformers such as Swin, DETR, and CVT, along with techniques for transfer learning and fine-tuning. -- **Unit 4 - Multimodal Models** : understand the fusion of text and vision by exploring multimodal tasks like image-to-text and text-to-image. Study models such as CLIP and its relatives (GroupViT, BLIPM, Owl-VIT), and master transfer learning techniques for multimodal tasks. -- **Unit 5 - Generative Models** : explore generative models, including GANs, VAEs, and diffusion models. Learn about their differences and applications in tasks such as text-to-image, image-to-image, and inpainting. -- **Unit 6 - Basic Computer Vision Tasks** : cover fundamental tasks like image classification, object detection, and segmentation and the models used in them (YOLO, SAM). Gain insights into metrics and practical applications for these tasks. -- **Unit 7 - Video and Video Processing** : examine the characteristics of videos, the role of video processing, and the challenges compared to image processing. Explore temporal continuity, motion estimation, and practical applications in video processing. -- **Unit 8 - 3D Vision, Scene Rendering, and Reconstruction** : delve into the complexities of three-dimensional vision, exploring concepts like Nerf and GQN for scene rendering and reconstruction. Understand the challenges and applications of 3D vision in computer vision, and how it provides an even more comprehensive view of spatial information. -- **Unit 9 - Model Optimization** : explore the critical aspects of model optimization. Cover techniques such as model compression, deployment considerations, and the usage of tools and frameworks. Include topics topics like distillation, pruning, and TinyML for efficient model deployment. -- **Unit 10 - Synthetic Data Creation** : discover the importance of synthetic data creation using deep generative models. Explore methods like point clouds and diffusion models and investigate major synthetic datasets and their applications in computer vision. -- **Unit 11 - Zero Shot Computer Vision** : delve into the realm of zero-shot learning in computer vision, covering aspects of generalization, transfer learning, and its applications in tasks such as zero-shot recognition and image segmentation. Explore the relationship between zero-shot learning and transfer learning across various computer vision domains. -- **Unit 12 - Ethics and Biases in Computer Vision** : understand the ethical considerations specific to computer vision. Explore why ethics matter, how biases can infiltrate AI models, and the types of biases prevalent in these domains. Learn how to do bias evaluation and mitigation strategies, emphasizing responsible development and deployment of AI technologies. -- **Unit 13 - Outlook and Emerging Trends** : explore current trends and emerging architectures . Delve into innovative approaches like Retentive Network, Hiera, Hyena, I-JEPA, and Retention Vision Models. +- **Unidad 1 - Conceptos fundamentales de Visión Artificial** : esta unidad cubre los conceptos esenciales para empezar con visión artificial: la necesidad de la visión artificial, los conceptos básicos de este campo y sus aplicaciones. También se exploran aspectos como la formación, el preprocesamiento y otros conceptos básicos del tratamiento de imágenes, así como aspectos clave de la extracción de características. +- **Unidad 2 - Redes Neuronales Convolucionales (CNNs por sus siglas en inglés)** : explora el mundo de las CNNs, entendiendo su arquitectura general, conceptos clave y los modelos pre-entrenados más relevantes. Aprende como aplicar conocimiento por transferencia (transfer learning) y afinar este tipo de modelos pre-entrenados para adaptarlos a tareas específicas. +- **Unidad 3 - Transformers para Visión (Vision Transformers o ViTs por sus siglas en inglés)** : explora la arquitectura de transformers en un contexto de visión artificial y aprende como se comparan con las redes convolucionales. Aprende sobre los transformers de visión más utilizados como Swin, DETR o CVT, junto con técnicas de transfer learning y el afinamiento de dichos modelos. +- **Unidad 4 - Modelos multimodales** : entiende la mezcla entre texto y visión a través de la exploración de tareas multimodales como imagen-a-texto y texto-a-imagen. Estudia modelos como CLIP y aquellos relacionados (GroupViT, BLIPM, Owl-VIT), y domina las técnicas de transfer learning para tareas multimodales. +- **Unidad 5 - Modelos generativos** : explora modelos generativos, incluyendo GANs (redes generativas adversativas), VAEs (autoencoders variacionales) y modelos de Difusión. Aprende sus diferencias y aplicaciones en tareas como texto-a-imagen, imagen-a-imagen e inpainting (restauración o generación de partes en una imagen). +- **Unidad 6 - Tareas básicas de Visión Artificial** : cubriremos tareas fundamentales como clasificación de imágenes, detección de objetos y segmentación de imágenes, y los modelos más habituales utilizados para estas tareas (YOLO, SAM). Aprenderás sobre las métricas de evaluación y las aplicaciones reales de estas tareas. +- **Unidad 7 - Video y procesamiento de video** : examinaremos las características de los videos, el rol del procesamiento de video y los retos que existen en comparación al procesamiento de imágenes. Exploraremos continuidad temporal, estimación del movimiento y las aplicaciones prácticas del procesamiento de video. +- **Unidad 8 - Visión para 3D, Renderización y reconstrucción de escenas** : explora las complejidades de la visión en tres dimensiones, explorando conceptos como Nerf y GQN para renderización y reconstrucción de escenas. También aprenderás sobre los retos y aplicaciones de la visión artificial en 3D y como provee de una perspectiva con incluso mayor información espacial. +- **Unidad 9 - Optimización de modelos** : explora los aspectos críticos de la optimización de modelos. Cubriremos técnicas como compresión de modelos, consideraciones a la hora del despliegue y, por último, el uso de herramientas y frameworks. Se incluyen temas como destilación (distillation), poda (pruning) y TinyML para un despliegue de modelos eficiente. +- **Unidad 10 - Creación de datos sintéticos** : descubre la importancia de la creación de datos sintéticos utilizando modelos generativos. Explora métodos como puntos de nubes y modelos de Difusión e investiga datasets sintéticos relevantes y sus aplicaciones en visión artificial. +- **Unidad 11 - Visión Artificial de Zero Shot** : entra en el reino del aprendizaje zero-shot en visión artificial, cubriendo aspectos de generalización, transfer learning y sus aplicaciones en tareas cómo reconocimiento de zero-shot y segmentación de imágenes. Explora la relación entre el aprendizaje zero-shot y transfer learning de manera transversal en distintas áreas de Visión Artificial. +- **Unidad 12 - Ética y sesgo en Visión Artificial** : entiende las consideraciones éticas específicas a Visión Artificial. Explora porqué la ética importa en Visión Artificial, cómo los sesgos pueden existir en modelos de Inteligencia Artificial y los tipos de sesgos que prevalecen en estos campos. Aprende cómo evaluar y mitigar el sesgo, siempre enfatizando el desarrollo y despliegue responsable de tecnologías de Inteligencia Artificial. +- **Unidad 13 - Futuro y tendencias emergentes** : explora las tendencias actuales y las arquitecturas emergentes. Entra en enfoques innovativos como las Redes Retentiva, Hiera, Hyena, I-JEPA y los modelos de visión Retentivos. -## Meet our team +## Conoce nuestro equipo -This course is made by the Hugging Face Community with love 💜! Join us by adding your contribution [on GitHub](https://github.com/johko/computer-vision-course). -Our goal was to create a computer vision course that is beginner-friendly and that could act as a resource for others. Around 60+ people from all over the world joined forces to make this project happen. Here we give them credit: +Este curso está hecho por la Comunidad de Hugging Face con 💜 amor! Únete a nosotros añadiendo tu contribución [en GitHub](https://github.com/johko/computer-vision-course). +Nuesta meta era crear un curso de visión artificial que es fácil para principiantes y que se pueda utilizar como un recurso para otros. Más de 60 personas de todo el mundo han unido sus fuerzas para que este proyecto pasase. Aquí les damos crédito: -**Unit 1 - Fundamentals of Computer Vision** +**Unidad 1 - Conceptos fundamentales de Visión Artificial** -- Reviewers: [Ratan Prasad](https://github.com/ratan), [Ameed Taylor](https://github.com/atayloraerospace), [Sergio Paniego](https://github.com/sergiopaniego) -- Writers: [Seshu Pavan Mutyala](https://github.com/seshupavan), [Isabella Bicalho-Frazeto](https://github.com/bellabf), [Aman Kapoor](https://github.com/aman06012003), [Tiago Comassetto Fróes](https://github.com/froestiago), [Aditya Mishra](https://github.com/adityaiiitr), [Kerem Delikoyun](https://github.com/krmdel), [Ker Lee Yap](https://github.com/klyap), [Kathy Fahnline](https://github.com/kfahn22), [Ameed Taylor](https://github.com/atayloraerospace) +- Revisores: [Ratan Prasad](https://github.com/ratan), [Ameed Taylor](https://github.com/atayloraerospace), [Sergio Paniego](https://github.com/sergiopaniego) +- Escritores: [Seshu Pavan Mutyala](https://github.com/seshupavan), [Isabella Bicalho-Frazeto](https://github.com/bellabf), [Aman Kapoor](https://github.com/aman06012003), [Tiago Comassetto Fróes](https://github.com/froestiago), [Aditya Mishra](https://github.com/adityaiiitr), [Kerem Delikoyun](https://github.com/krmdel), [Ker Lee Yap](https://github.com/klyap), [Kathy Fahnline](https://github.com/kfahn22), [Ameed Taylor](https://github.com/atayloraerospace) -**Unit 2 - Convolutional Neural Networks (CNNs)** +**Unidad 2 - Redes Neuronales Convolucionales (CNNs)** -- Reviewers: [Ratan Prasad](https://github.com/ratan), [Mohammed Hamdy](https://github.com/mmhamdy), [Sezan](https://github.com/sezan92), [Joshua Adrian Cahyono](https://github.com/JvThunder), [Murtaza Nazir](https://github.com/themurtazanazir), [Albert Kao](https://github.com/albertkao227), [Sitam Meur](https://github.com/sitamgithub-MSIT), [Antonis Stellas](https://github.com/AntonisCSt), [Sergio Paniego](https://github.com/sergiopaniego) -- Writers: [Emre Albayrak](https://github.com/emre570), [Caroline Shamiso Chitongo](https://github.com/ShamieCC), [Sezan](https://github.com/sezan92), [Joshua Adrian Cahyono](https://github.com/JvThunder), [Murtaza Nazir](https://github.com/themurtazanazir), [Albert Kao](https://github.com/albertkao227), [Isabella Bicalho-Frazeto](https://github.com/bellabf), [Aman Kapoor](https://github.com/aman06012003), [Sitam Meur](https://github.com/sitamgithub-MSIT) +- Revisores: [Ratan Prasad](https://github.com/ratan), [Mohammed Hamdy](https://github.com/mmhamdy), [Sezan](https://github.com/sezan92), [Joshua Adrian Cahyono](https://github.com/JvThunder), [Murtaza Nazir](https://github.com/themurtazanazir), [Albert Kao](https://github.com/albertkao227), [Sitam Meur](https://github.com/sitamgithub-MSIT), [Antonis Stellas](https://github.com/AntonisCSt), [Sergio Paniego](https://github.com/sergiopaniego) +- Escritores: [Emre Albayrak](https://github.com/emre570), [Caroline Shamiso Chitongo](https://github.com/ShamieCC), [Sezan](https://github.com/sezan92), [Joshua Adrian Cahyono](https://github.com/JvThunder), [Murtaza Nazir](https://github.com/themurtazanazir), [Albert Kao](https://github.com/albertkao227), [Isabella Bicalho-Frazeto](https://github.com/bellabf), [Aman Kapoor](https://github.com/aman06012003), [Sitam Meur](https://github.com/sitamgithub-MSIT) -**Unit 3 - Vision Transformers** +**Unidad 3 - Transformers para Visión (ViTs)** -- Reviewers: [Ratan Prasad](https://github.com/ratan), [Mohammed Hamdy](https://github.com/mmhamdy), [Ameed Taylor](https://github.com/atayloraerospace), [Sezan](https://github.com/sezan92) -- Writers: [Surya Guthikonda](https://github.com/SuryaKrishna02), [Ker Lee Yap](https://github.com/klyap), [Anindyadeep Sannigrahi](https://bento.me/anindyadeep), [Celina Hanouti](https://github.com/hanouticelina), [Malcolm Krolick](https://github.com/Mkrolick), [Alvin Li](https://github.com/alvanli), [Shreyas Daniel Gaddam](https://shreydan.github.io), [Anthony Susevski](https://github.com/asusevski), [Alan Ahmet](https://github.com/alanahmet), [Ghassen Fatnassi](https://github.com/ghassen-fatnassi) +- Revisores: [Ratan Prasad](https://github.com/ratan), [Mohammed Hamdy](https://github.com/mmhamdy), [Ameed Taylor](https://github.com/atayloraerospace), [Sezan](https://github.com/sezan92) +- Escritores: [Surya Guthikonda](https://github.com/SuryaKrishna02), [Ker Lee Yap](https://github.com/klyap), [Anindyadeep Sannigrahi](https://bento.me/anindyadeep), [Celina Hanouti](https://github.com/hanouticelina), [Malcolm Krolick](https://github.com/Mkrolick), [Alvin Li](https://github.com/alvanli), [Shreyas Daniel Gaddam](https://shreydan.github.io), [Anthony Susevski](https://github.com/asusevski), [Alan Ahmet](https://github.com/alanahmet), [Ghassen Fatnassi](https://github.com/ghassen-fatnassi) -**Unit 4 - Multimodal Models** +**Unidad 4 - Modelos multimodales** -- Reviewers: [Ratan Prasad](https://github.com/ratan), [Snehil Sanyal](https://github.com/snehilsanyal), [Mohammed Hamdy](https://github.com/mmhamdy), [Charchit Sharma](https://github.com/charchit7), [Ameed Taylor](https://github.com/atayloraerospace), [Isabella Bicalho-Frazeto](https://github.com/bellabf) -- Writers: [Snehil Sanyal](https://github.com/snehilsanyal), [Surya Guthikonda](https://github.com/SuryaKrishna02), [Mateusz Dziemian](https://github.com/mattmdjaga), [Charchit Sharma](https://github.com/charchit7), [Evstifeev Stepan](https://github.com/minemile), [Jeremy Kespite](https://github.com/jeremy-k3/), [Isabella Bicalho-Frazeto](https://github.com/bellabf), [Pedro Gabriel Gengo Lourenco](https://github.com/pedrogengo) +- Revisores: [Ratan Prasad](https://github.com/ratan), [Snehil Sanyal](https://github.com/snehilsanyal), [Mohammed Hamdy](https://github.com/mmhamdy), [Charchit Sharma](https://github.com/charchit7), [Ameed Taylor](https://github.com/atayloraerospace), [Isabella Bicalho-Frazeto](https://github.com/bellabf) +- Escritores: [Snehil Sanyal](https://github.com/snehilsanyal), [Surya Guthikonda](https://github.com/SuryaKrishna02), [Mateusz Dziemian](https://github.com/mattmdjaga), [Charchit Sharma](https://github.com/charchit7), [Evstifeev Stepan](https://github.com/minemile), [Jeremy Kespite](https://github.com/jeremy-k3/), [Isabella Bicalho-Frazeto](https://github.com/bellabf), [Pedro Gabriel Gengo Lourenco](https://github.com/pedrogengo) -**Unit 5 - Generative Models** +**Unidad 5 - Modelos generativos** -- Reviewers: [Ratan Prasad](https://github.com/ratan), [William Bonvini](https://github.com/WilliamBonvini), [Mohammed Hamdy](https://github.com/mmhamdy), [Ameed Taylor](https://github.com/atayloraerospace)- -- Writers: [Jeronim Matijević](github.com/jere357), [Mateusz Dziemian](https://github.com/mattmdjaga), [Charchit Sharma](https://github.com/charchit7), [Muhammad Waseem](https://github.com/hwaseem04) +- Revisores: [Ratan Prasad](https://github.com/ratan), [William Bonvini](https://github.com/WilliamBonvini), [Mohammed Hamdy](https://github.com/mmhamdy), [Ameed Taylor](https://github.com/atayloraerospace)- +- Escritores: [Jeronim Matijević](github.com/jere357), [Mateusz Dziemian](https://github.com/mattmdjaga), [Charchit Sharma](https://github.com/charchit7), [Muhammad Waseem](https://github.com/hwaseem04) -**Unit 6 - Basic Computer Vision Tasks** +**Unidad 6 - Tareas básicas de Visión Artificial** -- Reviewers: [Adhi Setiawan](https://github.com/adhiiisetiawan) -- Writers: [Adhi Setiawan](https://github.com/adhiiisetiawan), [Bastien Pouëssel](https://github.com/Skower) +- Revisores: [Adhi Setiawan](https://github.com/adhiiisetiawan) +- Escritores: [Adhi Setiawan](https://github.com/adhiiisetiawan), [Bastien Pouëssel](https://github.com/Skower) -**Unit 7 - Video and Video Processing** +**Unidad 7 - Video y procesamiento de video** -- Reviewers: [Ameed Taylor](https://github.com/atayloraerospace), [Isabella Bicalho-Frazeto](https://github.com/bellabf) -- Writers: [Diwakar Basnet](https://github.com/DiwakarBasnet), [Chulhwa Han](https://github.com/cjfghk5697), [Woojun Jung](https://github.com/jungnerd), [Jiwook Han](https://github.com/mreraser), [Mingi Kim](https://github.com/1kmmk1) +- Revisores: [Ameed Taylor](https://github.com/atayloraerospace), [Isabella Bicalho-Frazeto](https://github.com/bellabf) +- Escritores: [Diwakar Basnet](https://github.com/DiwakarBasnet), [Chulhwa Han](https://github.com/cjfghk5697), [Woojun Jung](https://github.com/jungnerd), [Jiwook Han](https://github.com/mreraser), [Mingi Kim](https://github.com/1kmmk1) -**Unit 8 - 3D Vision, Scene Rendering, and Reconstruction** +**Unidad 8 - Visión para 3D, Renderización y reconstrucción de escenas** -- Reviewers: [Ratan Prasad](https://github.com/ratan), [William Bonvini](https://github.com/WilliamBonvini), [Mohammed Hamdy](https://github.com/mmhamdy), [Adhi Setiawan](https://github.com/adhiiisetiawan), [Ameed Taylor](https://github.com/atayloraerospace0) -- Writers: [John Fozard](https://github.com/jfozard), [Vasu Gupta](https://github.com/vasugupta9), [Psetinek](https://github.com/psetinek) +- Revisores: [Ratan Prasad](https://github.com/ratan), [William Bonvini](https://github.com/WilliamBonvini), [Mohammed Hamdy](https://github.com/mmhamdy), [Adhi Setiawan](https://github.com/adhiiisetiawan), [Ameed Taylor](https://github.com/atayloraerospace0) +- Escritores: [John Fozard](https://github.com/jfozard), [Vasu Gupta](https://github.com/vasugupta9), [Psetinek](https://github.com/psetinek) -**Unit 9 - Model Optimization** +**Unidad 9 - Optimización de modelos** -- Reviewers: [Ratan Prasad](https://github.com/ratan), [Mohammed Hamdy](https://github.com/mmhamdy), [Adhi Setiawan](https://github.com/adhiiisetiawan), [Ameed Taylor](https://github.com/atayloraerospace) -- Writer: [Adhi Setiawan](https://github.com/adhiiisetiawan) +- Revisores: [Ratan Prasad](https://github.com/ratan), [Mohammed Hamdy](https://github.com/mmhamdy), [Adhi Setiawan](https://github.com/adhiiisetiawan), [Ameed Taylor](https://github.com/atayloraerospace) +- Escritores: [Adhi Setiawan](https://github.com/adhiiisetiawan) -**Unit 10 - Synthetic Data Creation** +**Unidad 10 - Creación de datos sintéticos** -- Reviewers: [Mohammed Hamdy](https://github.com/mmhamdy), [Ameed Taylor](https://github.com/atayloraerospace), [Bhavesh Misra](https://github.com/Zekrom-7780) -- Writers: [William Bonvini](https://github.com/WilliamBonvini), [Alper Balbay](https://github.com/alperiox), [Madhav Kumar](https://github.com/miniMaddy), [Bhavesh Misra](https://github.com/Zekrom-7780), [Kathy Fahnline](https://github.com/kfahn22) +- Revisores: [Mohammed Hamdy](https://github.com/mmhamdy), [Ameed Taylor](https://github.com/atayloraerospace), [Bhavesh Misra](https://github.com/Zekrom-7780) +- Escritores: [William Bonvini](https://github.com/WilliamBonvini), [Alper Balbay](https://github.com/alperiox), [Madhav Kumar](https://github.com/miniMaddy), [Bhavesh Misra](https://github.com/Zekrom-7780), [Kathy Fahnline](https://github.com/kfahn22) -**Unit 11 - Zero Shot Computer Vision** +**Unidad 11 - Visión Artificial de Zero Shot** -- Reviewers: [Ratan Prasad](https://github.com/ratan), [Mohammed Hamdy](https://github.com/mmhamdy), [Albert Kao](https://github.com/albertkao227), [Isabella Bicalho-Frazeto](https://github.com/bellabf) -- Writers: [Mohammed Hamdy](https://github.com/mmhamdy), [Albert Kao](https://github.com/albertkao227) +- Revisores: [Ratan Prasad](https://github.com/ratan), [Mohammed Hamdy](https://github.com/mmhamdy), [Albert Kao](https://github.com/albertkao227), [Isabella Bicalho-Frazeto](https://github.com/bellabf) +- Escritores: [Mohammed Hamdy](https://github.com/mmhamdy), [Albert Kao](https://github.com/albertkao227) -**Unit 12 - Ethics and Biases in Computer Vision** +**Unidad 12 - Ética y sesgo en Visión Artificial** -- Reviewers: [Ratan Prasad](https://github.com/ratan), [Mohammed Hamdy](https://github.com/mmhamdy), [Charchit Sharma](https://github.com/charchit7), [Adhi Setiawan](https://github.com/adhiiisetiawan), [Ameed Taylor](https://github.com/atayloraerospace), [Bhavesh Misra](https://github.com/Zekrom-7780) -- Writers: [Snehil Sanyal](https://github.com/snehilsanyal), [Bhavesh Misra](https://github.com/Zekrom-7780) +- Revisores: [Ratan Prasad](https://github.com/ratan), [Mohammed Hamdy](https://github.com/mmhamdy), [Charchit Sharma](https://github.com/charchit7), [Adhi Setiawan](https://github.com/adhiiisetiawan), [Ameed Taylor](https://github.com/atayloraerospace), [Bhavesh Misra](https://github.com/Zekrom-7780) +- Escritores: [Snehil Sanyal](https://github.com/snehilsanyal), [Bhavesh Misra](https://github.com/Zekrom-7780) -**Unit 13 - Outlook and Emerging Trends** +**Unidad 13 - Futuro y tendencias emergentes** -- Reviewers: [Ratan Prasad](https://github.com/ratan), [Ameed Taylor](https://github.com/atayloraerospace), [Mohammed Hamdy](https://github.com/mmhamdy) -- Writers: [Farros Alferro](https://github.com/farrosalferro), [Mohammed Hamdy](https://github.com/mmhamdy), [Louis Ulmer](https://github.com/lulmer), [Dario Wisznewer](https://github.com/dariowsz), [gonzachiar](https://github.com/gonzachiar) +- Revisores: [Ratan Prasad](https://github.com/ratan), [Ameed Taylor](https://github.com/atayloraerospace), [Mohammed Hamdy](https://github.com/mmhamdy) +- Escritores: [Farros Alferro](https://github.com/farrosalferro), [Mohammed Hamdy](https://github.com/mmhamdy), [Louis Ulmer](https://github.com/lulmer), [Dario Wisznewer](https://github.com/dariowsz), [gonzachiar](https://github.com/gonzachiar) -**Organisation Team** +**Equipo de organización** [Merve Noyan](https://github.com/merveenoyan), [Adam Molnar](https://github.com/lunarflu), [Johannes Kolbe](https://github.com/johko) -We are happy to have you here, let's get started! +Nos encanta tenerte aquí, vamos a empezar! From 301513487ba39533fa012e8eb5f45bab3438e0a1 Mon Sep 17 00:00:00 2001 From: Daniel Garcia Date: Sun, 29 Dec 2024 00:36:54 +0100 Subject: [PATCH 04/13] Fix grammar typos and add missing accents --- chapters/es/unit0/welcome/welcome.mdx | 32 +++++++++++++-------------- 1 file changed, 16 insertions(+), 16 deletions(-) diff --git a/chapters/es/unit0/welcome/welcome.mdx b/chapters/es/unit0/welcome/welcome.mdx index 05d4c9403..d3782dd45 100644 --- a/chapters/es/unit0/welcome/welcome.mdx +++ b/chapters/es/unit0/welcome/welcome.mdx @@ -2,9 +2,9 @@ Querido participante, -Bienvenid@ al **curso de visión artificial impulsado por la comunidad de 🤗**. El campo de la visión artificial está revolucionando el mundo de muchas maneras, desde por el desbloqueo de telefonos móviles a través de sistemas de reconocimiento facial, pasando por el análisis de imagenes médicas para la detección de enfermedades, hasta la vigilancia de la vida salvaje o la generación de nuevas imagenes. Juntos, nos sumergiremos en el fascinante mundo de la visión artificial! +Bienvenid@ al **curso de visión artificial impulsado por la comunidad de 🤗**. El campo de la visión artificial está revolucionando el mundo de muchas maneras, desde el desbloqueo de teléfonos móviles a través de sistemas de reconocimiento facial, pasando por el análisis de imágenes médicas para la detección de enfermedades, hasta la vigilancia de la vida salvaje o la generación de nuevas imágenes. Juntos, nos sumergiremos en el fascinante mundo de la visión artificial! -En este curso cubriremos todo lo relacionado con visión artificial, desde los conceptos más básicos hasta los últimos avances en este campo. Esta estructurado y diseñado para incluir temas fundacionales, de tal manera que sea accesible y agradable para todo el mundo. Nos encanta que hayas decidido acompañarnos en este fantástico viaje! +En este curso cubriremos todo lo relacionado con visión artificial, desde los conceptos más básicos hasta los últimos avances en este campo. Está estructurado y diseñado para incluir temas fundacionales, de tal manera que sea accesible y agradable para todo el mundo. Nos encanta que hayas decidido acompañarnos en este fantástico viaje! En esta página encontrarás cómo unirte a la comunidad de participantes, subir tus archivos, obtener la certificación, y otros detalles sobre el curso! @@ -17,7 +17,7 @@ Para obtener la certificación al terminar el curso, tendrás que realizar las s ### Entrenar/Afinar un modelo -Para ello, encontrarás notebooks debajo de la sección de Notebooks/Vision Transformers. De momento, existen notebooks para detección de objetos, segmentación de imagenes y clasificación de imágenes. Puedes tanto entrenar un modelo en un dataset que ya exista en el repositorio de 🤗 o subir un dataset a un repositorio privado y entrenar un modelo sobre ese mismo dataset. +Para ello, encontrarás notebooks debajo de la sección de Notebooks/Vision Transformers. De momento, existen notebooks para detección de objetos, segmentación de imágenes y clasificación de imágenes. Puedes tanto entrenar un modelo en un dataset que ya exista en el repositorio de 🤗 o subir un dataset a un repositorio privado y entrenar un modelo sobre ese mismo dataset. El repositorio de modelos necesita contar con lo siguiente: @@ -35,13 +35,13 @@ En esta parte de la tarea construirás una aplicación basada en Gradio para tu ## Certificación 🥇 -Una vez que hayas finalizado las tareas - Entrenar/Afinar un modelo y crear un espacio -, por favor, rellena el [formulario](https://forms.gle/isiVSw59oiiHP6pN9) con tu nombre, correo, y links a los repositorios de tu modelo y espacio para recivir tu certificado. +Una vez que hayas finalizado las tareas - Entrenar/Afinar un modelo y crear un espacio -, por favor, rellena el [formulario](https://forms.gle/isiVSw59oiiHP6pN9) con tu nombre, correo, y links a los repositorios de tu modelo y espacio para recibir tu certificado. ## Únete a la comunidad! -Te invitamos a ser parte de [nuestra comunidad activa y amistosa en Discord](http://hf.co/join/discord), donde nació este curso y donde podrás encontrar conversaciones fascinantes e intereses comunes con otros miembros. Allí encontrarás otros participantes con los que intercambiar ideas y recursos. Es tu fuente para colaborar con otros, redibir feedback y preguntar dudas! +Te invitamos a ser parte de [nuestra comunidad activa y amistosa en Discord](http://hf.co/join/discord), donde nació este curso y donde podrás encontrar conversaciones fascinantes e intereses comunes con otros miembros. Allí encontrarás otros participantes con los que intercambiar ideas y recursos. Es tu fuente para colaborar con otros, recibir feedback y preguntar dudas! -También es una manera de motivarte para seguir el curso. Unirse a nuestra comunidad es una manera estupenda de manterse al día. Quién sabe que será lo próximo que construiremos juntos? +También es una manera de motivarte para seguir el curso. Unirse a nuestra comunidad es una manera estupenda de mantenerse al día. Quién sabe que será lo próximo que construiremos juntos? Mientras la Inteligencia Artificial continúa avanzando, también lo hace la calidad de nuestras discusiones y la diversidad de las perspectivas dentro de nuestra comunidad. Al convertirte en miembro, tendrás la oportunidad de conectar con otros participantes del curso, intercambiar ideas, y colaborar con otros. Además, los creadores y colaboradores de este curso están atentos y activos en Discord, y podrían ayudarte en caso de que lo necesitases. Únete ahora! @@ -52,22 +52,22 @@ Hay muchos canales en nuestro servidor de Discord, cada uno dedicado a temas dis Como participante del curso de Visión Artificial, puede que encuentres especialmente relevantes los siguientes canales: - `#computer-vision`: un canal general para todo lo relacionado con Visión Artificial -- `#3d`: un canal para hablar de Visión Artificial especificamente aplicada a Visión Artificial en 3D. +- `#3d`: un canal para hablar de Visión Artificial específicamente aplicada a Visión Artificial en 3D. -Si estás interesado en Inteligencia Artificial Genrativa, también te invitamos a que te unas a todos los canales relacionados con modelos de Difusión: #core-announcements, #discussions, #dev-discussions, and #i-made-this. +Si estás interesado en Inteligencia Artificial Generativa, también te invitamos a que te unas a todos los canales relacionados con modelos de Difusión: #core-announcements, #discussions, #dev-discussions, y #i-made-this. ## Qué aprenderás -Este curso está compuesto de teoría, tutoriales prácitocs y retos fascinantes. +Este curso está compuesto de teoría, tutoriales prácticos y retos fascinantes. - **Parte de teoría**: Esta sección cubre los principios teóricos de Visión Artificial, todos ellos explicados en detalle con ejemplos prácticos. - **Tutoriales prácticos**: Aprenderás cómo entrenar y aplicar modelos relevantes de Visión Artificial utilizando notebooks de Google Collab. -A lo largo de este curso, cubriremos todo desde los conceptos básicos a los últimos avances en Visión Artificial. Esta estructurado de manera que cubre varios temas fundacionales, dándote una perspectiva y conocimiento en profundidad de porqué el uso de técnicas de Visión Artificial tiene tanto impacto en el mundo real. +A lo largo de este curso, cubriremos todo, desde los conceptos básicos a los últimos avances en Visión Artificial. Está estructurado de manera que cubre varios temas fundacionales, dándote una perspectiva y conocimiento en profundidad de por qué el uso de técnicas de Visión Artificial tiene tanto impacto en el mundo real. ## Prerrequisitos -Antes de empezar el curso, asegúrate de contar con algo de experiencia programando en Python y conocer conceptos relacionados con transformers, machine learning y redes neuronales. Si cualquiera de estos conceptos es nuevo para ti, quizá sea bueno que repases [la primera unidad del curso de NLP de Hugging Face](https://huggingface.co/learn/nlp-course/chapter1/3?fw=pt). Tener un buen conocimiento de técnicas de pre-procesamiento y operaciones matemáticas es bueno, no son necesariamente prerrequisitos para este curso. +Antes de empezar el curso, asegúrate de contar con algo de experiencia programando en Python y conocer conceptos relacionados con transformers, machine learning y redes neuronales. Si cualquiera de estos conceptos es nuevo para ti, quizá sea bueno que repases [la primera unidad del curso de NLP de Hugging Face](https://huggingface.co/learn/nlp-course/chapter1/3?fw=pt). Tener un buen conocimiento de técnicas de preprocesamiento y operaciones matemáticas es bueno, no son necesariamente prerrequisitos para este curso. ## Estructura del curso @@ -83,14 +83,14 @@ El curso está organizado en varias unidades, las cuales van desde lo fundamenta - **Unidad 8 - Visión para 3D, Renderización y reconstrucción de escenas** : explora las complejidades de la visión en tres dimensiones, explorando conceptos como Nerf y GQN para renderización y reconstrucción de escenas. También aprenderás sobre los retos y aplicaciones de la visión artificial en 3D y como provee de una perspectiva con incluso mayor información espacial. - **Unidad 9 - Optimización de modelos** : explora los aspectos críticos de la optimización de modelos. Cubriremos técnicas como compresión de modelos, consideraciones a la hora del despliegue y, por último, el uso de herramientas y frameworks. Se incluyen temas como destilación (distillation), poda (pruning) y TinyML para un despliegue de modelos eficiente. - **Unidad 10 - Creación de datos sintéticos** : descubre la importancia de la creación de datos sintéticos utilizando modelos generativos. Explora métodos como puntos de nubes y modelos de Difusión e investiga datasets sintéticos relevantes y sus aplicaciones en visión artificial. -- **Unidad 11 - Visión Artificial de Zero Shot** : entra en el reino del aprendizaje zero-shot en visión artificial, cubriendo aspectos de generalización, transfer learning y sus aplicaciones en tareas cómo reconocimiento de zero-shot y segmentación de imágenes. Explora la relación entre el aprendizaje zero-shot y transfer learning de manera transversal en distintas áreas de Visión Artificial. -- **Unidad 12 - Ética y sesgo en Visión Artificial** : entiende las consideraciones éticas específicas a Visión Artificial. Explora porqué la ética importa en Visión Artificial, cómo los sesgos pueden existir en modelos de Inteligencia Artificial y los tipos de sesgos que prevalecen en estos campos. Aprende cómo evaluar y mitigar el sesgo, siempre enfatizando el desarrollo y despliegue responsable de tecnologías de Inteligencia Artificial. -- **Unidad 13 - Futuro y tendencias emergentes** : explora las tendencias actuales y las arquitecturas emergentes. Entra en enfoques innovativos como las Redes Retentiva, Hiera, Hyena, I-JEPA y los modelos de visión Retentivos. +- **Unidad 11 - Visión Artificial de Zero Shot** : entra en el reino del aprendizaje zero-shot en visión artificial, cubriendo aspectos de generalización, transfer learning y sus aplicaciones en tareas como reconocimiento de zero-shot y segmentación de imágenes. Explora la relación entre el aprendizaje zero-shot y transfer learning de manera transversal en distintas áreas de Visión Artificial. +- **Unidad 12 - Ética y sesgo en Visión Artificial** : entiende las consideraciones éticas específicas a Visión Artificial. Explora por qué la ética importa en Visión Artificial, cómo los sesgos pueden existir en modelos de Inteligencia Artificial y los tipos de sesgos que prevalecen en estos campos. Aprende cómo evaluar y mitigar el sesgo, siempre enfatizando el desarrollo y despliegue responsable de tecnologías de Inteligencia Artificial. +- **Unidad 13 - Futuro y tendencias emergentes** : explora las tendencias actuales y las arquitecturas emergentes. Entra en enfoques novedosos como las Redes Retentiva, Hiera, Hyena, I-JEPA y los modelos de visión Retentivos. -## Conoce nuestro equipo +## a Conoce nuestro equipo Este curso está hecho por la Comunidad de Hugging Face con 💜 amor! Únete a nosotros añadiendo tu contribución [en GitHub](https://github.com/johko/computer-vision-course). -Nuesta meta era crear un curso de visión artificial que es fácil para principiantes y que se pueda utilizar como un recurso para otros. Más de 60 personas de todo el mundo han unido sus fuerzas para que este proyecto pasase. Aquí les damos crédito: +Nuestra meta era crear un curso de visión artificial que es fácil para principiantes y que se pueda utilizar como un recurso para otros. Más de 60 personas de todo el mundo han unido sus fuerzas para que este proyecto pasase. Aquí les damos crédito: **Unidad 1 - Conceptos fundamentales de Visión Artificial** From 3c605d0d1cc0443b1c8538fd97169cc84b791b39 Mon Sep 17 00:00:00 2001 From: Daniel Garcia Date: Sun, 29 Dec 2024 00:38:13 +0100 Subject: [PATCH 05/13] Fix typo --- chapters/es/unit0/welcome/welcome.mdx | 2 +- 1 file changed, 1 insertion(+), 1 deletion(-) diff --git a/chapters/es/unit0/welcome/welcome.mdx b/chapters/es/unit0/welcome/welcome.mdx index d3782dd45..6c2097293 100644 --- a/chapters/es/unit0/welcome/welcome.mdx +++ b/chapters/es/unit0/welcome/welcome.mdx @@ -35,7 +35,7 @@ En esta parte de la tarea construirás una aplicación basada en Gradio para tu ## Certificación 🥇 -Una vez que hayas finalizado las tareas - Entrenar/Afinar un modelo y crear un espacio -, por favor, rellena el [formulario](https://forms.gle/isiVSw59oiiHP6pN9) con tu nombre, correo, y links a los repositorios de tu modelo y espacio para recibir tu certificado. +Una vez que hayas finalizado las tareas - Entrenar/Afinar un modelo y crear un espacio, por favor, rellena el [formulario](https://forms.gle/isiVSw59oiiHP6pN9) con tu nombre, correo, y links a los repositorios de tu modelo y espacio para recibir tu certificado. ## Únete a la comunidad! From ddb175bec9228c0339cfb6445a58a3b4ea623a8a Mon Sep 17 00:00:00 2001 From: Daniel Garcia Date: Sun, 29 Dec 2024 00:38:50 +0100 Subject: [PATCH 06/13] Fix typo --- chapters/es/unit0/welcome/welcome.mdx | 2 +- 1 file changed, 1 insertion(+), 1 deletion(-) diff --git a/chapters/es/unit0/welcome/welcome.mdx b/chapters/es/unit0/welcome/welcome.mdx index 6c2097293..107cf2a25 100644 --- a/chapters/es/unit0/welcome/welcome.mdx +++ b/chapters/es/unit0/welcome/welcome.mdx @@ -35,7 +35,7 @@ En esta parte de la tarea construirás una aplicación basada en Gradio para tu ## Certificación 🥇 -Una vez que hayas finalizado las tareas - Entrenar/Afinar un modelo y crear un espacio, por favor, rellena el [formulario](https://forms.gle/isiVSw59oiiHP6pN9) con tu nombre, correo, y links a los repositorios de tu modelo y espacio para recibir tu certificado. +Una vez que hayas finalizado las tareas de Entrenar/Afinar un modelo y crear un espacio, por favor, rellena el [formulario](https://forms.gle/isiVSw59oiiHP6pN9) con tu nombre, correo, y links a los repositorios de tu modelo y espacio para recibir tu certificado. ## Únete a la comunidad! From fcacfeeeec9219a484a6a461eb82d6e8e99dbc70 Mon Sep 17 00:00:00 2001 From: Daniel Garcia Date: Sun, 29 Dec 2024 00:40:00 +0100 Subject: [PATCH 07/13] Fix typo --- chapters/es/unit0/welcome/welcome.mdx | 2 +- 1 file changed, 1 insertion(+), 1 deletion(-) diff --git a/chapters/es/unit0/welcome/welcome.mdx b/chapters/es/unit0/welcome/welcome.mdx index 107cf2a25..88f89bf2c 100644 --- a/chapters/es/unit0/welcome/welcome.mdx +++ b/chapters/es/unit0/welcome/welcome.mdx @@ -87,7 +87,7 @@ El curso está organizado en varias unidades, las cuales van desde lo fundamenta - **Unidad 12 - Ética y sesgo en Visión Artificial** : entiende las consideraciones éticas específicas a Visión Artificial. Explora por qué la ética importa en Visión Artificial, cómo los sesgos pueden existir en modelos de Inteligencia Artificial y los tipos de sesgos que prevalecen en estos campos. Aprende cómo evaluar y mitigar el sesgo, siempre enfatizando el desarrollo y despliegue responsable de tecnologías de Inteligencia Artificial. - **Unidad 13 - Futuro y tendencias emergentes** : explora las tendencias actuales y las arquitecturas emergentes. Entra en enfoques novedosos como las Redes Retentiva, Hiera, Hyena, I-JEPA y los modelos de visión Retentivos. -## a Conoce nuestro equipo +## Conoce a nuestro equipo Este curso está hecho por la Comunidad de Hugging Face con 💜 amor! Únete a nosotros añadiendo tu contribución [en GitHub](https://github.com/johko/computer-vision-course). Nuestra meta era crear un curso de visión artificial que es fácil para principiantes y que se pueda utilizar como un recurso para otros. Más de 60 personas de todo el mundo han unido sus fuerzas para que este proyecto pasase. Aquí les damos crédito: From ef31c7d036b62feafafc2ee4fd3574ee2c8f0021 Mon Sep 17 00:00:00 2001 From: Daniel Garcia Date: Sun, 29 Dec 2024 00:40:45 +0100 Subject: [PATCH 08/13] Fix typo --- chapters/es/unit0/welcome/welcome.mdx | 2 +- 1 file changed, 1 insertion(+), 1 deletion(-) diff --git a/chapters/es/unit0/welcome/welcome.mdx b/chapters/es/unit0/welcome/welcome.mdx index 88f89bf2c..6b9ae9cb8 100644 --- a/chapters/es/unit0/welcome/welcome.mdx +++ b/chapters/es/unit0/welcome/welcome.mdx @@ -89,7 +89,7 @@ El curso está organizado en varias unidades, las cuales van desde lo fundamenta ## Conoce a nuestro equipo -Este curso está hecho por la Comunidad de Hugging Face con 💜 amor! Únete a nosotros añadiendo tu contribución [en GitHub](https://github.com/johko/computer-vision-course). +Este curso está hecho por la Comunidad de Hugging Face con 💜! Únete a nosotros añadiendo tu contribución [en GitHub](https://github.com/johko/computer-vision-course). Nuestra meta era crear un curso de visión artificial que es fácil para principiantes y que se pueda utilizar como un recurso para otros. Más de 60 personas de todo el mundo han unido sus fuerzas para que este proyecto pasase. Aquí les damos crédito: **Unidad 1 - Conceptos fundamentales de Visión Artificial** From 44922021b33527df24199a526062362d1600df88 Mon Sep 17 00:00:00 2001 From: Daniel Garcia Date: Sun, 29 Dec 2024 00:41:41 +0100 Subject: [PATCH 09/13] Fix typo --- chapters/es/unit0/welcome/welcome.mdx | 2 +- 1 file changed, 1 insertion(+), 1 deletion(-) diff --git a/chapters/es/unit0/welcome/welcome.mdx b/chapters/es/unit0/welcome/welcome.mdx index 6b9ae9cb8..92ecc1995 100644 --- a/chapters/es/unit0/welcome/welcome.mdx +++ b/chapters/es/unit0/welcome/welcome.mdx @@ -6,7 +6,7 @@ Bienvenid@ al **curso de visión artificial impulsado por la comunidad de 🤗** En este curso cubriremos todo lo relacionado con visión artificial, desde los conceptos más básicos hasta los últimos avances en este campo. Está estructurado y diseñado para incluir temas fundacionales, de tal manera que sea accesible y agradable para todo el mundo. Nos encanta que hayas decidido acompañarnos en este fantástico viaje! -En esta página encontrarás cómo unirte a la comunidad de participantes, subir tus archivos, obtener la certificación, y otros detalles sobre el curso! +En esta página encontrarás información sobre cómo unirte a la comunidad de participantes, subir tus archivos, obtener la certificación, y otros detalles sobre el curso! ## Tareas 📄 From a5104244912238153f0ace587a847575844eaaae Mon Sep 17 00:00:00 2001 From: Daniel Garcia Date: Sun, 29 Dec 2024 00:45:22 +0100 Subject: [PATCH 10/13] Fix typo --- chapters/es/unit0/welcome/TableOfContents.mdx | 10 +++++----- 1 file changed, 5 insertions(+), 5 deletions(-) diff --git a/chapters/es/unit0/welcome/TableOfContents.mdx b/chapters/es/unit0/welcome/TableOfContents.mdx index 6f4f9bd38..acb718772 100644 --- a/chapters/es/unit0/welcome/TableOfContents.mdx +++ b/chapters/es/unit0/welcome/TableOfContents.mdx @@ -24,10 +24,10 @@ Sientete libre de revisarlos a tu ritmo y necesidad. | | [Image Classification with CLIP](https://github.com/johko/computer-vision-course/blob/main/notebooks/Unit%204%20-%20Multimodal%20Models/CLIP%20and%20relatives/Image%20classification%20with%20CLIP.ipynb) | [Image Classification with CLIP](https://colab.research.google.com/github/fariddinar/computer-vision-course/blob/main/notebooks/Unit%204%20-%20Multimodal%20Models/CLIP%20and%20relatives/Image%20classification%20with%20CLIP.ipynb) | | | [Image Retrieval with Prompts](https://github.com/johko/computer-vision-course/blob/main/notebooks/Unit%204%20-%20Multimodal%20Models/CLIP%20and%20relatives/Image_retrieval_with_prompts.ipynb) | [Image Retrieval with Prompts](https://colab.research.google.com/github/fariddinar/computer-vision-course/blob/main/notebooks/Unit%204%20-%20Multimodal%20Models/CLIP%20and%20relatives/Image_retrieval_with_prompts.ipynb) | | | [Image Similarity](https://github.com/johko/computer-vision-course/blob/main/notebooks/Unit%204%20-%20Multimodal%20Models/CLIP%20and%20relatives/Image_similarity.ipynb) | [Image Similarity](https://colab.research.google.com/github/fariddinar/computer-vision-course/blob/main/notebooks/Unit%204%20-%20Multimodal%20Models/CLIP%20and%20relatives/Image_similarity.ipynb) | -| Unidad 5 - Modelos generativos | Sin Notebook | No Colab | +| Unidad 5 - Modelos generativos | Sin Notebook | Sin Colab | | Unidad 6 - Tareas básicas de Visión Artificial | [Fine-tune SAM on Custom Dataset]() | [Fine-tune SAM on Custom Dataset]() | | Unidad 7 - Video y procesamiento de video | [Fine-tune ViViT for Video Classification](https://github.com/DiwakarBasnet/computer-vision-course/blob/unit-7_Video_and_VideoProcessing/notebooks/Unit%207%20-%20Video%20and%20Video%20Processing/Vivit_Fine_tuned_Video_Classification.ipynb) | [Fine-tune ViViT for Video Classification](https://github.com/DiwakarBasnet/computervisioncourse/blob/unit7_Video_and_VideoProcessing/notebooks/Unit%207%20%20Video%20and%20Video%20Processing/Vivit_Fine_tuned_Video_Classification.ipynb) | -| Unidad 8 - Visión para 3D, Renderización y reconstrucción de escenas | Sin Notebook | No Colab | +| Unidad 8 - Visión para 3D, Renderización y reconstrucción de escenas | Sin Notebook | Sin Colab | | Unidad 9 - Optimización de modelos | [Edge TPU](https://github.com/johko/computer-vision-course/blob/main/notebooks/Unit%209%20-%20Model%20Optimization/edge_tpu.ipynb) | [Edge TPU](https://colab.research.google.com/github/fariddinar/computer-vision-course/blob/main/notebooks/Unit%209%20-%20Model%20Optimization/edge_tpu.ipynb) | | | [ONNX](https://github.com/johko/computer-vision-course/blob/main/notebooks/Unit%209%20-%20Model%20Optimization/onnx.ipynb) | [ONNX](https://colab.research.google.com/github/fariddinar/computer-vision-course/blob/main/notebooks/Unit%209%20-%20Model%20Optimization/onnx.ipynb) | | | [OpenVINO](https://github.com/johko/computer-vision-course/blob/main/notebooks/Unit%209%20-%20Model%20Optimization/openvino.ipynb) | [OpenVINO](https://colab.research.google.com/github/fariddinar/computer-vision-course/blob/main/notebooks/Unit%209%20-%20Model%20Optimization/openvino.ipynb) | @@ -40,6 +40,6 @@ Sientete libre de revisarlos a tu ritmo y necesidad. | | [BlenderProc Examples](https://github.com/johko/computer-vision-course/blob/main/notebooks/Unit%2010%20-%20Synthetic%20Data%20Creation/blenderproc_examples.ipynb) | [BlenderProc Examples](https://colab.research.google.com/github/fariddinar/computer-vision-course/blob/main/notebooks/Unit%2010%20-%20Synthetic%20Data%20Creation/blenderproc_examples.ipynb) | | | [Image Labeling with BLIP-2](https://github.com/johko/computer-vision-course/blob/main/notebooks/Unit%2010%20-%20Synthetic%20Data%20Creation/image_labeling_BLIP_2.ipynb) | [Image Labeling with BLIP-2](https://colab.research.google.com/github/fariddinar/computer-vision-course/blob/main/notebooks/Unit%2010%20-%20Synthetic%20Data%20Creation/image_labeling_BLIP_2.ipynb) | | | [Synthetic Data Creation with SDXL Turbo](https://github.com/johko/computer-vision-course/blob/main/notebooks/Unit%2010%20-%20Synthetic%20Data%20Creation/synthetic_data_creation_sdxl_turbo.ipynb) | [Synthetic Data Creation with SDXL Turbo](https://colab.research.google.com/github/fariddinar/computer-vision-course/blob/main/notebooks/Unit%2010%20-%20Synthetic%20Data%20Creation/synthetic_data_creation_sdxl_turbo.ipynb) | -| Unidad 11 - Visión Artificial de Zero Shot | Sin Notebook | No Colab | -| Unidad 12 - Ética y sesgo en Visión Artificial | Sin Notebook | No Colab | -| Unidad 13 - Futuro y tendencias emergentes | Sin Notebook | No Colab | +| Unidad 11 - Visión Artificial de Zero Shot | Sin Notebook | Sin Colab | +| Unidad 12 - Ética y sesgo en Visión Artificial | Sin Notebook | Sin Colab | +| Unidad 13 - Futuro y tendencias emergentes | Sin Notebook | Sin Colab | From 7cd0412b6551006b025675bd4b5f7f5140db423a Mon Sep 17 00:00:00 2001 From: Daniel Garcia Date: Sun, 29 Dec 2024 00:49:33 +0100 Subject: [PATCH 11/13] Add an extra word to explain a concept better --- chapters/es/unit0/welcome/welcome.mdx | 2 +- 1 file changed, 1 insertion(+), 1 deletion(-) diff --git a/chapters/es/unit0/welcome/welcome.mdx b/chapters/es/unit0/welcome/welcome.mdx index 92ecc1995..b27c65b71 100644 --- a/chapters/es/unit0/welcome/welcome.mdx +++ b/chapters/es/unit0/welcome/welcome.mdx @@ -73,7 +73,7 @@ Antes de empezar el curso, asegúrate de contar con algo de experiencia programa El curso está organizado en varias unidades, las cuales van desde lo fundamental hasta un repaso profundo de los modelos más avanzados (state-of-the-art models o SOTA) -- **Unidad 1 - Conceptos fundamentales de Visión Artificial** : esta unidad cubre los conceptos esenciales para empezar con visión artificial: la necesidad de la visión artificial, los conceptos básicos de este campo y sus aplicaciones. También se exploran aspectos como la formación, el preprocesamiento y otros conceptos básicos del tratamiento de imágenes, así como aspectos clave de la extracción de características. +- **Unidad 1 - Conceptos fundamentales de Visión Artificial** : esta unidad cubre los conceptos esenciales para empezar con visión artificial: la necesidad para la existencia de visión artificial, los conceptos básicos de este campo y sus aplicaciones. También se exploran aspectos como la formación, el preprocesamiento y otros conceptos básicos del tratamiento de imágenes, así como aspectos clave de la extracción de características. - **Unidad 2 - Redes Neuronales Convolucionales (CNNs por sus siglas en inglés)** : explora el mundo de las CNNs, entendiendo su arquitectura general, conceptos clave y los modelos pre-entrenados más relevantes. Aprende como aplicar conocimiento por transferencia (transfer learning) y afinar este tipo de modelos pre-entrenados para adaptarlos a tareas específicas. - **Unidad 3 - Transformers para Visión (Vision Transformers o ViTs por sus siglas en inglés)** : explora la arquitectura de transformers en un contexto de visión artificial y aprende como se comparan con las redes convolucionales. Aprende sobre los transformers de visión más utilizados como Swin, DETR o CVT, junto con técnicas de transfer learning y el afinamiento de dichos modelos. - **Unidad 4 - Modelos multimodales** : entiende la mezcla entre texto y visión a través de la exploración de tareas multimodales como imagen-a-texto y texto-a-imagen. Estudia modelos como CLIP y aquellos relacionados (GroupViT, BLIPM, Owl-VIT), y domina las técnicas de transfer learning para tareas multimodales. From 5531a927da8b309ef96426d98814ad6f66fc2ec1 Mon Sep 17 00:00:00 2001 From: Daniel Garcia Date: Sun, 29 Dec 2024 00:50:52 +0100 Subject: [PATCH 12/13] Fix a typo --- chapters/es/unit0/welcome/welcome.mdx | 2 +- 1 file changed, 1 insertion(+), 1 deletion(-) diff --git a/chapters/es/unit0/welcome/welcome.mdx b/chapters/es/unit0/welcome/welcome.mdx index b27c65b71..0bb936b8a 100644 --- a/chapters/es/unit0/welcome/welcome.mdx +++ b/chapters/es/unit0/welcome/welcome.mdx @@ -71,7 +71,7 @@ Antes de empezar el curso, asegúrate de contar con algo de experiencia programa ## Estructura del curso -El curso está organizado en varias unidades, las cuales van desde lo fundamental hasta un repaso profundo de los modelos más avanzados (state-of-the-art models o SOTA) +El curso está organizado en varias unidades, las cuales van desde lo fundamental hasta un repaso profundo de los modelos más avanzados (state-of-the-art models o SOTA): - **Unidad 1 - Conceptos fundamentales de Visión Artificial** : esta unidad cubre los conceptos esenciales para empezar con visión artificial: la necesidad para la existencia de visión artificial, los conceptos básicos de este campo y sus aplicaciones. También se exploran aspectos como la formación, el preprocesamiento y otros conceptos básicos del tratamiento de imágenes, así como aspectos clave de la extracción de características. - **Unidad 2 - Redes Neuronales Convolucionales (CNNs por sus siglas en inglés)** : explora el mundo de las CNNs, entendiendo su arquitectura general, conceptos clave y los modelos pre-entrenados más relevantes. Aprende como aplicar conocimiento por transferencia (transfer learning) y afinar este tipo de modelos pre-entrenados para adaptarlos a tareas específicas. From 7068d69726b61ebbb2da7846a47faf3cf1ead67e Mon Sep 17 00:00:00 2001 From: Daniel Garcia Date: Sun, 29 Dec 2024 00:52:52 +0100 Subject: [PATCH 13/13] Add quotes for channel line 57 --- chapters/es/unit0/welcome/welcome.mdx | 2 +- 1 file changed, 1 insertion(+), 1 deletion(-) diff --git a/chapters/es/unit0/welcome/welcome.mdx b/chapters/es/unit0/welcome/welcome.mdx index 0bb936b8a..47f5aee8f 100644 --- a/chapters/es/unit0/welcome/welcome.mdx +++ b/chapters/es/unit0/welcome/welcome.mdx @@ -54,7 +54,7 @@ Como participante del curso de Visión Artificial, puede que encuentres especial - `#computer-vision`: un canal general para todo lo relacionado con Visión Artificial - `#3d`: un canal para hablar de Visión Artificial específicamente aplicada a Visión Artificial en 3D. -Si estás interesado en Inteligencia Artificial Generativa, también te invitamos a que te unas a todos los canales relacionados con modelos de Difusión: #core-announcements, #discussions, #dev-discussions, y #i-made-this. +Si estás interesado en Inteligencia Artificial Generativa, también te invitamos a que te unas a todos los canales relacionados con modelos de Difusión: `#core-announcements`, `#discussions`, `#dev-discussions`, y `#i-made-this`. ## Qué aprenderás