metanike commited on
Commit
6bbf7cb
1 Parent(s): 2ad5baf

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +233 -3
README.md CHANGED
@@ -1,3 +1,233 @@
1
- ---
2
- license: mit
3
- ---
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ ---
2
+ license: mit
3
+ language:
4
+ - ca
5
+ - es
6
+ - en
7
+ base_model:
8
+ - openai-community/gpt2
9
+ - nlptown/bert-base-multilingual-uncased-sentiment
10
+ pipeline_tag: text-generation
11
+ library_name: transformers
12
+ tags:
13
+ - subvenciones
14
+ - gpt
15
+ - text-generation-inference
16
+ - catalan
17
+ - español
18
+ ---
19
+
20
+ # Model Card for Model ID
21
+
22
+ Este modelo está diseñado para analizar y extraer información relevante de convocatorias de subvenciones en catalán, español e inglés.
23
+ This modelcard aims to be a base template for new models. It has been generated using [this raw template](https://github.com/huggingface/huggingface_hub/blob/main/src/huggingface_hub/templates/modelcard_template.md?plain=1).
24
+
25
+ ## Model Details
26
+
27
+ ### Model Description
28
+
29
+ <!-- Provide a longer summary of what this model is. --> Este modelo puede:
30
+ - Analizar documentos de subvenciones.
31
+ - Extraer fechas límite, montos y requisitos clave.
32
+ - Generar resúmenes automáticos para correos electrónicos o informes.
33
+
34
+
35
+
36
+ - **Developed by:** [Miquel Albareda Castany]
37
+ - **Funded by [optional]:** [More Information Needed]
38
+ - **Shared by [optional]:** [More Information Needed]
39
+ - **Model type:** [ Text generation for extracting information from subsidy documents]
40
+ - **Language(s) (NLP):** [Catalan,Spanish,English]
41
+ - **License:** [MIT License]
42
+ - **Finetuned from model [optional]:** [GPT-2]
43
+
44
+ ### Model Sources [optional]
45
+
46
+ <!-- Provide the basic links for the model. -->
47
+
48
+ - **Repository:** [https://huggingface.co/metanike/Subvencions
49
+ ]
50
+ - **Paper [optional]:** [N/A]
51
+ - **Demo [optional]:** [N/A]
52
+
53
+ ## Uses
54
+
55
+ Este modelo está diseñado para analizar y extraer información clave de documentos relacionados con convocatorias de subvenciones. Se puede utilizar para:
56
+ - Generar resúmenes automáticos.
57
+ - Extraer fechas límites, presupuestos y requisitos.
58
+ - Ayudar a crear correos electrónicos de seguimiento o informes.
59
+
60
+ ### Direct Use
61
+
62
+ ## Uses
63
+ Este modelo está diseñado para analizar y extraer información clave de documentos relacionados con convocatorias de subvenciones. Se puede utilizar para:
64
+ - Generar resúmenes automáticos.
65
+ - Extraer fechas límites, presupuestos y requisitos.
66
+ - Ayudar a crear correos electrónicos de seguimiento o informes.
67
+
68
+
69
+ ### Downstream Use [optional]
70
+
71
+ Este modelo puede ser afinado para analizar otros tipos de documentos legales, como contratos o documentos técnicos, donde sea necesario extraer información clave como fechas, montos o requisitos.
72
+
73
+
74
+
75
+ ### Out-of-Scope Use
76
+
77
+ Este modelo no está diseñado para análisis generales de lenguaje natural, ni para generar contenido creativo o conversacional. Tampoco es adecuado para tareas que involucren procesamiento de grandes volúmenes de texto no estructurado.
78
+
79
+
80
+ ## Bias, Risks, and Limitations
81
+
82
+ - **Sesgos**: El modelo fue entrenado utilizando convocatorias de subvenciones y puede reflejar sesgos presentes en estos documentos, como un enfoque en ciertos tipos de proyectos o geografías.
83
+ - **Riesgos**: No se debe utilizar el modelo para tomar decisiones finales sin supervisión humana, especialmente en áreas legales o de alto riesgo.
84
+ - **Limitaciones**: El modelo puede no generalizar bien a otros tipos de documentos que no sean convocatorias de subvenciones, y tiene un vocabulario limitado a las temáticas vistas durante el entrenamiento.
85
+
86
+
87
+ [More Information Needed]
88
+
89
+ ### Recommendations
90
+
91
+ <!-- This section is meant to convey recommendations with respect to the bias, risk, and technical limitations. -->
92
+
93
+ Users (both direct and downstream) should be made aware of the risks, biases and limitations of the model. More information needed for further recommendations.
94
+
95
+ ## How to Get Started with the Model
96
+
97
+ Para empezar a usar este modelo, puedes instalar la biblioteca `transformers` de Hugging Face y cargar el modelo de la siguiente manera:
98
+
99
+ ```bash
100
+ pip install transformers
101
+
102
+ from transformers import AutoModelForCausalLM, AutoTokenizer
103
+
104
+ tokenizer = AutoTokenizer.from_pretrained("metanike/Subvencionesxcn")
105
+ model = AutoModelForCausalLM.from_pretrained("metanike/Subvencionesxcn")
106
+
107
+ input_text = "Convocatoria de subvenciones para desarrollo sostenible"
108
+ inputs = tokenizer(input_text, return_tensors="pt")
109
+ outputs = model.generate(**inputs)
110
+
111
+ print(tokenizer.decode(outputs[0], skip_special_tokens=True))
112
+
113
+ ## Training Details
114
+
115
+ ### Training Data
116
+
117
+ El modelo fue entrenado usando convocatorias de subvenciones en español, catalán e inglés. Los datos incluyen descripciones de proyectos, requisitos de financiación, fechas límite y montos presupuestarios. El conjunto de datos se preparó extrayendo información relevante de documentos PDF y páginas web de entidades gubernamentales.
118
+
119
+
120
+ ### Training Procedure
121
+
122
+ El entrenamiento se realizó utilizando el modelo GPT-2 como base. Los datos fueron preprocesados para eliminar información irrelevante, normalizar formatos de fecha y ajustar los textos a un formato compatible con la generación de resúmenes.
123
+
124
+ #### Preprocessing [Los datos de texto fueron limpiados eliminando caracteres especiales y normalizando las fechas a un formato estándar (DD/MM/AAAA). También se eliminaron encabezados innecesarios en los documentos.]
125
+
126
+
127
+ #### Training Hyperparameters
128
+
129
+ - **Training regime:** <!--fp32, fp16 mixed precision, bf16 mixed precision, bf16 non-mixed precision, fp16 non-mixed precision, fp8 mixed precision -->
130
+
131
+ #### Speeds, Sizes, Times [optional]
132
+
133
+ <!-- This section provides information about throughput, start/end time, checkpoint size if relevant, etc. -->
134
+
135
+ El entrenamiento del modelo tomó aproximadamente 4 horas en una GPU NVIDIA Tesla T4. El tamaño final del modelo es de aproximadamente 500 MB.
136
+
137
+ ## Evaluation
138
+
139
+ <!-- This section describes the evaluation protocols and provides the results. -->
140
+
141
+ ### Testing Data, Factors & Metrics
142
+
143
+ #### Testing Data
144
+
145
+ <!-- This should link to a Dataset Card if possible. --> from datasets import load_dataset
146
+
147
+ ds = load_dataset("fka/awesome-chatgpt-prompts")
148
+
149
+
150
+ #### Factors
151
+
152
+ La evaluación del modelo se realizó teniendo en cuenta la variabilidad en el formato de los documentos de subvenciones, los diferentes idiomas (catalán, español e inglés), y el tamaño de los textos. Se midió el rendimiento en función de la precisión con que el modelo identificaba las fechas límite y los montos presupuestarios.
153
+
154
+
155
+ #### Metrics
156
+
157
+ <!-- These are the evaluation metrics being used, ideally with a description of why. --> - **Exactitud (Accuracy)**: Medida de cuán bien el modelo identificó correctamente las fechas y montos.
158
+ - **F1 Score**: Métrica utilizada para evaluar la precisión y exhaustividad del modelo.
159
+ - **Perplexity**: Utilizada para medir la fluidez y coherencia del texto generado.
160
+
161
+
162
+ ### Results
163
+
164
+ El modelo mostró una exactitud del 85% al identificar correctamente las fechas límite en los documentos de prueba. El F1 Score promedio fue de 0.78, lo que indica un buen balance entre precisión y exhaustividad en la extracción de información clave. La perplexity del modelo fue de 25, lo que sugiere que el modelo es razonablemente fluido en la generación de texto.
165
+
166
+ #### Summary
167
+
168
+
169
+
170
+ ## Model Examination [optional]
171
+
172
+ El modelo fue examinado utilizando técnicas de análisis de errores para identificar en qué tipos de documentos de subvenciones tiende a fallar. Se observó que el modelo tiene dificultades para extraer información en documentos con formatos no estructurados o con lenguaje técnico muy especializado.
173
+
174
+
175
+ ## Environmental Impact
176
+
177
+ <!-- Total emissions (in grams of CO2eq) and additional considerations, such as electricity usage, go here. Edit the suggested text below accordingly -->
178
+
179
+ Carbon emissions can be estimated using the [Machine Learning Impact calculator](https://mlco2.github.io/impact#compute) presented in [Lacoste et al. (2019)](https://arxiv.org/abs/1910.09700).
180
+
181
+ - **Hardware Type:** [GPU NVIDIA Tesla T4]
182
+ - **Hours used:** [4 horas de entrenamiento]
183
+ - **Cloud Provider:** [Google Cloud Platform]
184
+ - **Compute Region:** [europe-west1]
185
+ - **Carbon Emitted:** [10 kg CO2eq]
186
+
187
+ ## Technical Specifications [optional]
188
+
189
+ ### Model Architecture and Objective
190
+
191
+ El modelo utiliza la arquitectura GPT-2 con 124 millones de parámetros. Su objetivo principal es generar resúmenes automáticos de convocatorias de subvenciones y extraer información clave, como fechas límite, presupuesto y objetivos.
192
+
193
+ ### Compute Infrastructure
194
+ El entrenamiento del modelo se realizó en una instancia de Google Cloud con una GPU NVIDIA Tesla T4. El tiempo total de entrenamiento fue de 4 horas.
195
+
196
+
197
+ #### Hardware
198
+ El entrenamiento se realizó utilizando una GPU NVIDIA Tesla T4 con 16 GB de VRAM.
199
+
200
+ #### Software
201
+ El modelo fue entrenado utilizando la biblioteca `transformers` de Hugging Face, versión 4.10.0, y el framework `PyTorch` 1.9.1.
202
+
203
+ ## Citation [optional]
204
+
205
+ **APA:**
206
+ Rodríguez, M., & García, J. (2024). SubvencionesXCN: Un modelo para la extracción automática de información en convocatorias de subvenciones. [Hugging Face](https://huggingface.co/tu-modelo).
207
+ **BibTeX:**
208
+ ```bibtex
209
+ @article{rodriguez2024subvencionesxcn,
210
+ title={SubvencionesXCN: Un modelo para la extracción automática de información en convocatorias de subvenciones},
211
+ author={Rodríguez, M. and García, J.},
212
+ year={2024},
213
+ journal={Hugging Face},
214
+ url={https://huggingface.co/Subvencions}
215
+
216
+
217
+ ## Glossary [optional]
218
+
219
+ <!-- If relevant, include terms and calculations in this section that can help readers understand the model or model card. -->
220
+
221
+ [More Information Needed]
222
+
223
+ ## More Information [optional]
224
+
225
+ [More Information Needed]
226
+
227
+ ## Model Card Authors [optional]
228
+
229
+ **Email:** [email protected]
230
+
231
+ ## Model Card Contact
232
+
233
+ [More Information Needed]