En el año 2012, Google creó el sitio web Centros de datos de Google
en el que mostraba por primera vez los entresijos de las instalaciones
que alojan los servidores en los que se almacenan físicamente los
correos de Gmail, los vídeos de YouTube o los índices que permiten las
búsquedas en su motor de búsqueda.
En el siguiente vídeo se muestra una pequeña visita virtual por uno de los centros de datos de Google:
Si te ha gustado la visita virtual que se muestra en el vídeo anterior la puedes repetir tú mismo a través de la página Paséate por un centro de datos de Google.
Por último, en el Álbum de fotos se muestra parte de la tecnología que se emplea en los centros de datos de Google.
Los centros de datos de Google:
1.¿Qué líquido “especial” emplea Google para refrigerar sus centros de datos?
Google utiliza agua reciclada. Los tanques de almacenamiento pueden albergar hasta 900.000 litros de agua.
2. ¿Qué tipo de red local se emplea en los centros de datos de Google?
Google emplea una red de área ocal de tipo Ethernet.
3. ¿Qué sistema emplea Google para realizar copias de seguridad de sus datos?
Google
lo hace de manera robotizada. Cada cinta tiene un código de barras
único para que nuestro sistema automático pueda encontrar la cinta
correcta.
4. ¿Qué hace Google cuando un disco duro está defectuoso?
Google
destruye los discos duros defectuosos de manera física mediante una
topadora industrial, de esta manera su contenido no podrá ser leido y
menos recuperado.
5. ¿Cuántos centros de datos posee Google en la actualidad? ¿Dónde se encuentran?
Google posee 13 centros de datos distribuidos por 3 continentes:
-
7 en América: Condado de Berkeley, Carolina del Sur; Council Bluffs,
Iowa; Condado de Douglas, Georgia; Quilicura, Chile; Condado de Mayes,
Oklahoma; Lenoir, Carolina del Norte; The Dalles, Oregón.
- 3 en Europa: Hamina, Finlandia; Saint-Ghislain, Bélgica; Dublín, Irlanda.
- 3 en Asia: Hong Kong; Singapur; Taiwán.
6. Y una pregunta de broma, ¿qué vehículo emplean los ingenieros de Google para moverse por sus instalaciones?
Google utiliza para recorrer sus centro una moto eléctrica ecológica llamada G Bike
"La nube", ¿qué es la nube en informática? La nube es un término que
empezó a ponerse de moda a partir del año 2010, tal como podemos
observar en el siguiente gráfico de Google Trends:
Desde entonces, todo el mundo habla de la nube, pero la nube informática es tanto o más escurridiza que las nubes reales.
La
computación en la nube, conocido también como servicios en la nube,
informática en la nube, nube de cómputo o nube de conceptos, (del inglés
cloud computing), es un paradigma que permite ofrecer servicios de computación a través de Internet.
Es
decir, lo que se lleva haciendo más de 40 años, desde el año 1969
cuando nació Internet. Sí, nada nuevo bajo el sol. Lo nuevo que ofrece
la nube es la posibilidad de ejecutar directamente en la Web a través de
un navegador aplicaciones que en el pasado requerían la instalación
previa del software en el ordenador.
Normalmente,
en un entorno profesional de desarrollo web es muy normal que se
utilicen diferentes ordenadores para diferentes propósitos:
El servidor de desarrollo: es el ordenador en el que se desarrolla el sitio web, no necesita estar conectado a Internet.
El servidor de pruebas: es el ordenador en el que se puede comprobar el correcto funcionamiento de un sitio web en su conjunto.
El
servidor de respaldo o de versiones: es el ordenador en el que se
almacena todo el código desarrollado y permite recuperar versiones
antiguas del código.
El servidor de producción: es el ordenador
en el que está funcionando el sitio web, al que están accediendo los
usuarios del sitio web y que está conectado a Internet (excepto si el
sitio web es para una intranet).
En tu caso, tu ordenador
personal realiza las funciones de servidor de desarrollo, servidor de
pruebas y servidor de respaldo (¡no te olvides de realizar copias de
seguridad de tu trabajo de forma periódica!), aunque si tienes varios
ordenadores te puedes montar un entorno de trabajo como el anterior. ¿Y
el servidor de producción? Es el ordenador en el que vas a publicar tu
sitio web.
HTML, siglas de HyperText Markup Language, hace referencia al lenguaje de marcado para la elaboración de páginas web. Es un estándar que sirve de referencia para la elaboración de páginas web en sus diferentes versiones, define una estructura básica y un código (denominado código HTML) para la definición de contenido de una página web, como texto, imágenes, entre otros. Es un estándar a cargo de la W3C, organización dedicada a la estandarización de casi todas las tecnologías ligadas a la web, sobre todo en lo referente a su escritura e interpretación. Es el lenguaje con el que se definen las páginas web.
Fuente: HTML, Wikipedia
HTTP
Hypertext Transfer Protocol o HTTP (en español protocolo de transferencia de hipertexto) es el protocolo usado en cada transacción de la World Wide Web. HTTP fue desarrollado por el World Wide Web Consortium y la Internet Engineering Task Force, colaboración que culminó en 1999 con la publicación de una serie de RFC, el más importante de ellos es el RFC 2616 que especifica la versión 1.1.
Fuente: HTTP, Wikipedia
URL
Un localizador de recursos uniforme o URL —siglas en inglés de Uniform Resource Locator— es un identificador de recursos uniforme (URI) cuyos recursos referidos pueden cambiar, esto es, la dirección puede apuntar a recursos variables en el tiempo. Están formados por una secuencia de caracteres, de acuerdo a un formato modélico y estándar, que designa recursos en una red, como Internet.
Fuente: URL, Wikipedia
Definimos el hipertexto como aquel texto que contiene enlaces a otros documentos.
Es mucho mas fácil entenderlo si pensamos en como puede surgir la necesidad de crear un documento hipertexto. En la evolución de la lectura informática de documentos, primero se usaba la visualización completa de ficheros, pero cuando estos eran muy largos se complicaban las modificaciones y la búsqueda de información, por lo que se tendió a guardarla en ficheros separados.
De esa manera tenía el usuario que saber el nombre de los ficheros para leer un documento u otro. Cuando el número de documentos era muy elevado, se complicaba el recordar en que documentos se guardaban que cosas, por lo que se creaba un documento que hacía las veces de índice.
Pero era un trabajo adicional el tener que abrir un documento índice antes de abrir el que quieres realmente, así se crearon los menús informáticos, donde pulsando sobre la opción del tema adecuado se nos abría automáticamente el documento asociado.
Esto estaba muy bien cuando fuese reducida la información necesaria para comprender de que trata el documento asociado a la opción del menú , pero cuando la explicación era extensa ya en el menú, y se hacían referencia a términos de difícil comprensión, surgió la necesidad de que fueran las palabras o frases de un texto las que tuvieran el enlace con sus documentos explicativos, siendo esto hipertexto.
Historia
El concepto de hipertexto fue creado por Vannevar Bush, un estadounidense que con la invención de Memex, un dispositivo que sirve como base de datos y que posteriormente da la posibilidad de interactuar con los usuarios, permitió mecanizar y conectar la información con el fin de aumentar el desarrollo en aquella época. Toda esta explicación aparece recogida en el artículo As We May Think,1 publicado en el número de julio de 1945 de la revista The Atlantic Monthly, de Boston.
Ted Nelson, en 1965, fue el primero en acuñar la palabra “hypertext”, su propuesta es Xanadu, un sistema que permite que un mismo documento aparezca en múltiples contextos sin tener que haber sido duplicado.
El primer sistema de hipertexto llevado a cabo fue creado por Andries Van Dam y construido en la Universidad Brown en el año 1967. Se llamaba HES (Hypertext Editing System).
Douglas Engelbart en 1968 diseña el NLS (on line system), origen del sistema Augment, un medio basado en una interfaz que permite la manipulación directa con el uso del dispositivo “ratón”. Engelbart se asocia con Ted Nelson para desarrollar un programa de computador en el que se puede implementar las nociones de hipermedia e hipertexto. Aspen Movie Map fue el primer sistema hipermedia, llevado a cabo por Lippman en 1978, en el que se creó un mapa virtual de la ciudad de Aspen con el que el usuario podía moverse por las calles con el manejo de un joystick . El concepto de anclas vino de la mano de Intermedia, en la Universidad Brown. Intermedia fue un sistema multiusuario que daba la facilidad de recuperar información. Solo se podía utilizar en Apple bajo Unix. Debido a la falta de fondos desparece. Guide fue el primer sistema de hipertexto comercial, lo desarrolló Unix y más tarde llevado a la plataforma Apple Macintosh. El verdadero punto de inflexión para el concepto de hipertexto ocurrió en 1987 con la introducción de HyperCard en las computadores de Apple. En ese mismo año se da una conferencia en la Universidad de North Caroline dedicada a la investigación hipertextual. En 1991 se lleva a cabo el proyecto para llevar la tecnología hipermedial a la World Wide Web. Dos años más tarde, NCSA (National Center for Supercomputing Applications) crea Mosaic el navegador gráfico para la WWW.
Mucha gente contrata su servicio de alojamiento al tuntún y sin tener los conocimientossuficientes yendo
simplemente la opción más barata y la que más sale en la publicidad.
Así, no es de extrañar que muchos acaben con un hosting web que no les sirve para sus necesidades o que acaben contratando simplemente un proveedor malo que no escasean precisamente.
¿Qué es un hosting web?
Un hosting web es un servicio donde un proveedor te alquila un servidor conectado a Internet y en el que puedes alojar todo tipo de ficheros que para que se pueda acceder a ellos vía Internet.
Esto sería similar a copiar estos
ficheros en una carpeta local de tu ordenador, pero con la diferencia de
que en este caso esa carpeta se encuentra en el servidor del proveedor y
su contenido es, por tanto, visible en Internet (siempre y cuando
permitas que sea visible).
Una sala de servidores típica con cientos
de máquinas.
El uso más típico de un hosting es crear un sitio web (que, en realidad, no es más que un conjunto de ficheros en formato HTML
que son las páginas web), pero también puedes usar tu hosting
simplemente para permitir la descarga de cualquier otra cosa (documentos
PDF, ficheros MP3 de audio, vídeo, etc.)
Aparte de los servicios básicos de alojamiento de fichero, un servicio de hosting incluye otros servicios de mucho valor añadido.
Entre ellos, los más importantes son los siguientes:
Un servidor de correo electrónico que permite que tengas cuentas de correo con tu propio nombre de dominio.
Alojamiento de aplicaciones web pasadas en PHP y bases de datos
para crear webs generalistas, blogs, tiendas online o foros de
discusión, por citar algunas de las aplicaciones más importantes.
Acceso vía FTP para almacenar y descargar ficheros.
Crear discos virtuales, es decir, crear
almacenamiento en la nube con tu propio servicio de hosting al que
accedes como si lo tuvieras en tu ordenador.
Tres cosas básicas que tienes que saber antes de contratar un servicio de hosting
Cuando contratas un servicio de hosting hay una serie de cuestiones
que tienes que tener especialmente claras puesto que están entre las
principales fuentes de problemas con las que se encuentra la gente en su hosting.
Destacaría, sobre todo, estas tres:
1. El dominio puede formar parte o no del servicio de hosting
Para contratar el dominio para tu servidor de hosting tienes dos opciones:
Contratarlo como parte del paquete de hosting, lo que tiene la ventaja de la simplicidad porque está todo en el mismo sitio.
Con otro proveedor diferente, normalmente proveedores especializados en dominios como NameCheap o GoDaddy.
Tiene la ventajas de que puede salir algo más económico y de que
generalmente ofrecen un poco más de posibilidades e interfaces de
usuario más fáciles de utilizar.
En el caso de tener el domino y el hosting en proveedores diferentes, a través de una configuración relativamente sencilla, el dominio se “apunta” desde tu proveedor de dominios a tu servidor de hosting (se configura para que use los servidores DNS de tu hosting).
Hechas estas gestiones, tendrás un servidor web tuyo visible en Internet bajo tu propio nombre de dominio.
En el siguiente vídeo puedes ver cómo se configuraría Namecheap (proveedor de dominios) para apuntar a un servidor en Hostgator:
2. Diferentes aplicaciones, diferentes necesidades
Una de las principales razones de elegir mal el servicio de alojamiento web es el hecho de ignorar la diferencia
entre una web “estática”, compuesta por una colección de páginas HTML
muy simples con un contenido fijo (simples ficheros con extensión .htm o
html, apenas cambia su contenido en el tiempo) y una web “dinámica”
creada con un lenguaje de programación (típicamente PHP) cuyo contenido
cambia continuamente, y lo que ello implica para la correcta elección del hosting.
Ejemplos típicos de aplicaciones dinámicas son los foros de discusión, las wikis como la Wikipedia o un blogWordPress o unatienda online creada con herramientas como Prestashop o Magento.
Todas estas herramientas están hechas en PHP y presentan el mismo
problema de cara al hosting: suelen usar base de datos para almacenar la
información dinámica y esto, junto con la ejecución de PHP las hace mucho más exigentes para el servidor.
En una simple web estática, cuando los usuarios navegan por ella,
cada vez que entran en una página simplemente se están bajando el
correspondiente fichero HTML, un proceso relativamente “ligero” para el
servidor. En cambio, en una web dinámica, basada en PHP, como un blog
WordPress, cada vez que entran en una página tiene lugar un proceso que
genera esa página “sobre la marcha”.
Por tanto, como se explica en detalle en este post, un servidor que puede atender a muchos usuarios con una web estática se puede venir rápidamente abajo si lo que se aloja es una aplicación web como WordPress. Éste es uno de los errores más típicos que cometen los usuarios al contratar un proveedor de hosting: contratar un servicio muy barato, completamente infradimensionado para sus necesidades.
Esta problemática se explica también más a fondo en este vídeo:
3. Según la aplicación, hay escoger el sistema operativo adecuado para tu servidor
En este punto muchos proveedores te permiten elegir entre Linux y Windows.
Para la mayoría de los usuarios, Linux va a ser la mejor opción. Se
considera como el mejor sistema operativo para servidores web y está muy
probado. Para que te hagas una idea, la Wikipedia, por ejemplo, está
montada sobre un sistema de este tipo.
Si tienes intención de instalar aplicaciones web que usan PHP, Perl, Python, de utilizar bases de datos MySQL como WordPress o Joomla, Linux es la opción natural.
La razón de elegir Windows será que quieras instalar aplicaciones
basadas en tecnología Microsoft como ASP.NET y bases de datos SQL
Server. En este caso, en un servidor Linux simplemente no se podrían
ejecutar.
los principales tipos de alojamiento web y sus diferencias
Existe una gama bastante extensa de tipos de alojamiento como puedes
comprobar fácilmente en webs de comparativas como, por ejemplo, Hosting Mundo.
Las principales opciones para la enorme mayoría de los usuarios, serán las de la lista siguiente.
1. Hosting gratuito
Los hosting web gratuitos, aparte del alojamiento de ficheros, suelen incluir las prestaciones más importantes: acceso vía FTP, correo electrónico y soporte para aplicaciones PHP. Para que el dominio sea también gratis, suelen ofrecer además gratis un subdominio del proveedor.
Es decir, por ejemplo, el proveedor de hosting gratuito x10hosting.com
asigna subdominios de “x10.mx”, de modo que para un usuario “pepito”,
el dominio del servidor del usuario sería “pepito.x10.mx”.
Ventajas:
Interesante para probar y aprender.
Permite mantener un entorno de desarrollo para un entorno real a coste cero.
Desventajas:
Las opciones gratuitas suelen tener capacidad de proceso muy pequeña, poca memoria, severas limitaciones delosrecursos como espacio en disco o la transferencia mensual.
Nivel de servicio de muy baja calidad (muchas caídas y
paradas de mantenimiento). Y es normal, no pretenden ser opciones para
webs reales, sino alojamientos web compartidos (la modalidad que se
explica a continuación) muy “capados” como reclamos para contratar un hosting de pago con el proveedor en cuestión.
Por las razones anteriores, no son una opción válida para un proyecto real.
En definitiva, te recomiendo que no uses el hosting gratuito para un proyecto serio, aunque puede servir para crear webs de desarrolla en las que solamente quieras probar cosas.
2. Hosting compartido
El hosting compartido es la opción más adecuada para la enorme mayoría de los usuarios.
Seguramente estemos hablando de que para el 95% o más de los lectores que lleguen a este post ésta sea la opción de hosting más adecuada.
Como sugiere el nombre, en esta modalidad, varios clientes comparten una misma máquina. Entre ellos no se ven, cada uno tiene su espacio privado y exclusivo, pero la carga que generan sus webs en el servidor es compartida y por tanto la carga de unas webs puede afectar a otras.
Ventajas:
Por lo general, se adapta muy bien a las necesidades de uso personal (por ejemplo, un blog) y profesionales y pequeños negocios.
Esta opción es que resulta muy económica y, con un buen proveedor como el nuestro, se pueden conseguir prestaciones realmente buenas por poco dinero (empieza en unos 3€/mes). A veces se le llama también hosting barato (muchas veces con connotaciones despectivas) precisamente por ser muy económico.
Una cuenta de un proveedor de calidad aguanta mucho tráfico, más que
suficiente para la gran mayoría de los casos.
Un buen servicio de hosting ya suele ofrecer una disponibilidad
muy razonable, es normal que se garantice una disponibilidad del 99,9%
(el servidor se encuentra caído como máximo el 0,1% del tiempo)
Desventajas:
El principal problema del hosting compartido es que abundan proveedores poco serios que apuran tanto el número de clientes y recursos asignados que acaban con servidores completamente infradimensionados.
Debido a lo anterior, es frecuente encontrarse con problemas de lentitud, incapacidad para absorber picos de tráfico altos, inestabilidad (caídas frecuentes y largas), etc.
En definitiva, si un servidor compartido, si el proveedor mantiene
una holgura sana en el dimensionamiento del servidor, tu web va a ser
capaz de aguantar mucho tráfico, incluidos picos de tráfico
excepcionales.
Pero mucho cuidado con el proveedor que elijas, especialmente
en esta modalidad que es de bajo coste, hay un mundo diferencia entre
unos y otros y, por tanto, resulta especialmente importante elegir bien tu proveedor.
. Hosting VPS (Virtual Private Server)
En la modalidad de hosting VPS el servicio consiste en poner a disposición del cliente un servidor exclusivo (privado), pero no como máquina física, sino como máquina virtual,
con diferentes niveles de recursos (potencia de procesador, memoria,
etc.) entre los cuales el cliente puede elegir el nivel que necesita
para su caso concreto.
En el caso de Hostgator,
por ejemplo, en el momento de la redacción de este post hay una gama de
9 niveles, VPS Level 1 hasta VPS Level 9. De hecho, nosotros
contratamos en su momento un VPS Level 3 con Hostgator.
Ventajas:
Es un esquema muy flexible, capaz de adaptarse rápido a la
demanda ya que ante mayores necesidades de recursos el proveedor puede
“abrir el grifo” de recursos inmediato (implica lógicamente un cambio de
tarifas).
Al no estar compartido el servidor, no se puede ver comprometido por picos de actividad de otros clientes.
Es una solución más profesional puesto que viene unida a un mayor control del servidor de hosting o la posibilidad de poder crear varios espacios independientes de hosting que funcionan como varias cuentas de hosting compartido dentro del servidor VPS.
Con un único servicio de hosting puedes alojar sitios web diferentes
como cuentas de hosting diferenciadas y adaptadas a diferentes
necesidades.
Desventajas:
Aumento sensible del precio (las opciones más económicas suelen empezar en los 20-30€/mes).
Una cosa que mucha gente no sabe es que las prestaciones de los VPS
básicos, a pesar de sus tarifas mayores, en sus niveles básicos suelen
ser inferiores a las prestaciones de un hosting compartido de calidad.
Esto es así porque un hosting compartido de calidad ya ofrece unas
prestaciones considerables en cuanto a recursos, simplemente no garantiza que éstas estén disponibles en todo momento para tu web, cosa que sí garantiza un hosting VPS.
Una mayor complejidad técnica de administración del servidor,
normalmente sólo al alcance de personas con buenos conocimientos
técnicos. El objetivo de un servicio VPS no consiste únicamente en
mayores prestaciones y garantía de servicios, sino que uno de las
prestaciones más importantes por las que se paga con este servicio es el
mayor control sobre el servidor.
Como puedes ver, sobre todo, en estos últimos puntos, el hosting VPS ya tiene una orientación mucho más profesional. Realmente la razón de contratar un VPS no es tanto aguantar mástráfico, sino tener más libertad para hacer lo que quieras con tu servidor. Es decir, es una opción para perfiles muy técnicos, no muy adecuada para usuarios “normales”.
Lo bueno es que llegado a esos niveles de tráfico el blog debería poder producir los suficientes ingresos como para cubrir de sobra el coste del hosting.
Con la popularidad de determinadas aplicaciones como WordPress ha ido
cobrando también fuerza la opción de un hosting especializado,
especialmente el hosting especializado en WordPress, aunque también son
muy populares los hostings especializados para Joomla, Prestashop y Magento dada la gran popularidad de estas aplicaciones.
Los que pretenden estos servicios es ir un paso más allá de un
hosting “puro” como, por ejemplo, Hostgator y ofrecer un soporte
integral que no se limita a los servidores en sí, sino que incluye
también el soporte técnico para garantizar el correcto funcionamiento de
estas aplicaciones.
Dentro de esto el hosting gestionado es el “tope de gama” en servicio
porque ya no es simplemente soporte, sino administración proactiva de
la aplicación en cuestión. Es decir, ellos te administran el hosting y
la aplicación (sus actualizaciones, parches, configuración de seguridad,
solucionar problemas, etc.). Es un servicio “llave en mano” el cual
pretende que te puedas olvidar de los problemas del hosting y la aplicación y centrarte en los contenidos de tu sitio.
Ventajas:
Estos servicios se encuentran optimizados para la aplicación en cuestión.
Te quitan la carga de tener que lidiar con las tareas más pesadas y
complejas para alguien no técnico como la instalación inicial,
mantenimiento y seguridad de tu aplicación (en diferentes grados, según
el nivel de servicio contratado).
Al ser especialistas en la aplicación, conocen las “cosquillas” de
cada aplicación (en el caso de WordPress, por ejemplo, cosas como plugins conflictivos o cómo optimizar su rendimiento lo más posible).
Lo anterior redunda en definitiva en un funcionamiento mejor de la
aplicación web (velocidad, estabilidad, seguridad…) y menos trabajo para
el dueño del sitio web.
Desventajas:
La principal desventaja de este tipo de hosting es que en el caso de los gestionados aumenta el precio sensiblemente.
Una de las opciones más famosas del mercado que es WPEngine, un hosting gestionado para WordPress. Empieza con un precio muy razonable de $29(22€)/mes (precio de mayo del 2013) hasta un máximo de 25.000 visitas al mes. Pero si subes de ese tráfico, el siguiente escalón (hasta 100.000 visitas/mes) ya son $99(75€)/mes.
No obstante, esta opción se merece una pensada muy seria
puesto que en el caso de WPEngine, por ejemplo, el servicio es excelente
y te ahorras tiempo “perdido” que dedicas al mantenimiento de la
instalación del blog cuando lo podrías dedicar realmente a tu actividad.
5. Cloud hosting
El cloud hosting (hosting en la nube) es una opción relativamente reciente y muy interesante.
Se trata de una evolución del hosting tradicional que usando
tecnologías propias de la nube reparte el servicio prestado entre varias
máquinas físicas. En este modelo es también muy típica la tarificación
por consumo (potencia de procesamiento consumida, etc.)
Ventajas:
Las ventajas propias del concepto de cloud hosting: sobre todo, seguridad (disponibilidad por redundancia) y una gran flexibilidadpara crecer fácilmente ante una mayor demanda (escalabilidad).
Existe una oferta con muy buena relación calidad/precio (por ejemplo, el proveedor Gigas)
Debido a la flexibilidad inherente del concepto es un hosting capaz de adaptarse de manera muy rápida y sencilla a las necesidades cambiantes del usuario.
Desventajas:
Las opciones de entrada suelen tener un precio más elevado que las opciones de hosting compartido.
6. Otras opciones de hosting
En la práctica será muy raro que la solución que se adapte mejor a tu
caso no se encuentre entre las anteriores. Esto puede ser el caso, por
ejemplo, cuando con mucho tráfico (aprox. >500.000 de páginas vistas
/mes) dónde conviene ir pensando ya en un servidor dedicado (similar a un servidor VPS, pero como máquina física).
En cualquier caso, en el artículo de hosting de la Wikipedia puedes información sobre los restantes tipos de hosting.
¿Cuál es la solución que necesitas tú?
A la hora de elegir la opción que más de conviene hay que tener en cuenta, sobre todo, tres parámetros:
Si la web se compone de simples páginas estáticas o se trata de una
aplicación web como un blog WordPress, más existente para el servidor
El tráfico que prevés para tu sitio web
Tus posibilidades económicas (personal o profesional)
Aquí caben aún muchos más criterios y combinatorias, pero voy a tratar de reducirlas a tres escenarios dentro de los cuales te deberías poder encuadrar:
1. Web estática muy simple, compuesta sólo por páginas HTML
En este caso, un buen hosting compartido te servirá perfectamente incluso para un tráfico muy elevado.
Aunque, en general, el límite de tráfico es algo muy variable, en
este caso se puede decir que un buen servicio de hosting compartido
debería soportar fácilmente un tráfico de unos pocos cientos de miles de páginas vistas/mes sin problemas, incluso sustancialmente más.
No obstante, el tema tráfico ha de matizarse más. En un sitio que usa muchas imágenes y con mucho peso (por ejemplo, por no haberse optimizado ni reducido), por ejemplo, estas estimaciones se vendrían totalmente abajo. Hablaré de ello en futuros posts.
2. Web dinámica no profesional (blog, foro, etc.) y sin pretensión de generar ingresos
En este escenario ya es más complejo. Como norma general, aquí el hosting compartido también debería ser una fórmula válida. Primero porque con aplicaciones bien optimizadas se puede soportar un tráfico considerable y porque, además, normalmente en este caso tu presupuesto estará limitado y al no prestar un servicio comercial deberías poder tener una cierta tolerancia a problemas como caídas puntuales ante picos de demanda muy fuertes.
La estimación del tope de tráfico en este caso se vuelve más compleja porque depende mucho de la aplicación concreta
y es imposible generalizarla. Un blog WordPress bien optimizado con
plugins de cache y otras medidas, por ejemplo, no genera la misma carga
que un foro de discusión (por el alto % de comentarios que provocan
operaciones de escritura en la base de datos, que son operaciones
pesadas para el servidor).
Como orientación, un blog WordPress bien optimizado puede soportar perfectamente >100.000 páginas vistas / mes. De hecho, no es descabellado que soporte algo más.
No deberías tener problemas porque llegar a estas cifras de tráfico ya empieza ser muy difícil. (Párrafo actualizado el 18/04/2014): Este blog, por ejemplo, con unas 140.000 páginas vistas /mes en este momento, según el ranking Alexa.com,
ya se encuentra en el puesto 685 de los sitios web en España (ya son
relativamente pocos los que están por delante), lo cual da una idea de
que no es trivial llegar a estas cifras tráfico.
Por otra parte, en este blog hemos superado con hosting compartido muchas veces picos de tráfico de tráfico con >50 usuarios simultáneos
(extrapolado a un día entero, con una permanencia de 3 minutos y 1,5
páginas vistas por usuario, que es la media de este blog, sería como un
tráfico constante de > 30.000 páginas en un día o casi 1 millón
páginas vistas / mes…).
Y por último, ten en cuenta que si llegas a los límites de tráfico de
un buen servicio de hosting compartido, precisamente el hecho de tener
esta cantidad de tráfico debería permitir financiar sin ningún problema una opción de hosting superior.
Por ejemplo:
Supongamos que has llegado a un tráfico de 100.000 páginas vistas /
mes y efectivamente observas que estás empezando a tener problemas.
Simplemente con publicidad AdSense (que es una de las opciones de monetización más simples y con peor rendimiento…) no deberías tener grandes dificultades para generar un mínimo de 100€ al mes. Según el nicho temático de tu sitio, podrías ganar incluso sustancialmente más (AdSense es contextual y las cifras varían enormemente en función de la temática del contenido en el que se insertan los anuncios).
Un servidor compartido de gama alta como los que recomendamos de Webempresa para este tráfico rondará los 10€/mes + IVA de modo que sólo con los ingresos de publicidad lo financiarías sobradamente quedando incluso aun bastante margen.
3. Web dinámica profesional (blog, foro, tienda online, etc.) y/o con intención de generar ingresos
En este caso, mi consejo es muy claro: no te fijes en el precio como principal criterio, pon la prioridad nº1 en la calidad del servicio y las menores complicaciones posibles para ti para que ese tiempo lo puedas dedicar a tu negocio.
La cuestión clave es tu tolerancia a las incidencias, sobre todo caídas y lentitud del servicio.
Una opción de hosting compartido puede ser perfectamente válida con
proveedor que tenga altos estándares de calidad. No obstante, incluso
con un proveedor bueno, siempre hay un pequeño riesgo de que un
“vecino” tuyo en el hosting compartido en un momento determinado consuma
recursos en exceso, lo cual te hará sufrir incidencias de lentitud o
incluso caídas.
Si quieres eliminar ese riesgo, la opción a elegir es el hosting gestionado,
pero recuerda que con este tipo de servicios aumenta sensiblemente el
precio, especialmente si el tráfico empieza a superar las 100.000
páginas/vistas al mes.
Una opción muy interesante ante este escenario es combinar un hosting
compartido premium como Webempresa donde sabes que no hay estrecheces
con los recursos y combinarlo con la asistencia de un profesional
especializado en WordPress que contratas por otra vía. Es una gestión
más pesada (encontrar la persona adecuada, etc.) pero puede salir
mejor de precio, junto con una gran calidad de servicio.
Concluyendo
Si te fijas, en realidad, después de la parrafada que te he soltado,
el resumen en realidad es muy simple, las conclusiones del post de hoy
se podrían resumir básicamente en estos puntos:
A casi todo el mundo le debería servir un hosting compartido.
Estimando de manera conservadora, el 95% de los usuarios nunca van a
llegar a niveles de tráfico problemáticos que exijan una opción de
hosting superior que ésta.
El mercado ofrece hosting compartido de calidad a precios casi ridículos, pero es fácil meter la pata y contratar un hosting malo. Por tanto, hay que saber cómo se contrata un servicio de hosting bueno.
Para no meter la pata hay que prestar especial atención a las limitaciones en los recursos que
vienen en la “letra pequeña” ancho si que viene. Los proveedores suelen
indicar claramente el ancho de banda mensual y espacio en disco, pero
pocos son claros con la memoria y potencia de procesador de la que dispone cada cuenta.
De cara a la capacidad de tráfico que será capaz de soportar el servidor hay que tener muy claro que no es lo mismo alojar páginas estáticas HMTL (muy ligeras) que aplicaciones web (pesadas).
En el caso de alojar aplicaciones web como un blog o un foro, resulta crítica una buena optimización de la aplicación. Hechos estos deberes, incluso con un hosting compartido (si es de calidad) se pueden alcanzar capacidades de tráfico muy altas.
En cualquier caso, las estimaciones del tráfico que puede soportar un hosting son muy relativas
porque dependen de muchos factores, de hecho, haber dado cifras de
visitas tan concretos aquí es en ese sentido algo “atrevido” por mi
parte. He pretendido darte con ello una simplemente una orientación a
groso modo de por dónde van los tiros.
Una opción de hosting superior (VPS, etc.) normalmente va a tener sentido solamente en un contexto profesional
dónde el sitio web directa (p.e., una tienda online) o indirectamente
(p.e., un blog de un consultor) resulta clave para la generación de
ingresos económicos. Además, un hosting de este tipo, salvo que tengas
conocimientos técnicos avanzados en administración de servidores de
hosting, requiere la ayuda de un técnico especializado por su mayor
dificultad de administración.
Una de las características más interesantes que poseen los navegadores de Internet, tanto Netscape como Explorer, es la de permitir la incorporación de componentes específicos, llamados “plug-ins”, que agregan funcionalidad.
En los
comienzos de Internet, cuando todo era texto, los navegadores no tenían
mayores dificultades para interpretar los contenidos que recibían de la
red. Con el tiempo y la creciente popularidad de la plataforma, muchas
compañías que desarrollaban software para computadoras percibieron la
oportunidad de mirar sus productos a Internet.
Esto
trajo un aluvión de nuevas tecnologías de audio, video, animación y
programación a la red, pero presentaba un aspecto problemático: la
compatibilidad.
Es bien sabido que las páginas de Internet se interpretan del mismo modo en cualquier computadora, conindependencia
de la plataforma que posea. Esto se debe a que el lenguaje que se
utiliza en las páginas, llamado HTML, es un compendio de comandos
universales que todos los navegadores entienden a la perfección.
El problema surge cuando un sitio web fue desarrollado utilizando alguna tecnología no estándar. Es aquí donde entran en escena los plug-ins.
Estos
componentes son archivos que se almacenan en directorios del disco local
y que ‘asisten’ a los navegadores para interpretar determinados
contenidos. Los plug-ins pueden descargarse de Internet para su
instalación y, en algunos casos, se puede acceder a la auto instalación
de los mismos desde la red.
Todos
los navegadores ofrecen, desde sus menús de preferencias, información
acerca de los plug-ins que se encuentran instalados. En el caso de Netscape Navigator,
existe un comando que se puede ingresar a la barra de direcciones:
“about:plugins”; al presionar ENTER recibiremos la lista de componentes
ya instalados, así como información de versiones y fabricantes.
Un
plugin es una especie de herrramienta o aplicación que te permite
ejecutar un proceso y está diseñado para un programa específico, ademas
no viene incluido en el programa original que instalas sino lo tienes
que descargar e instalar por separado,su instalación es opcional y si
es que lo necesitas.
ejemplo :
una mañana te levantas y te preparas para ir al banco que abre a las 8 y sales a la calle en camisita arremangada, pero en la vereda dices: "La recorcha que hace frio!" entonces regresas y te calzas un abrigo o un swetter. Luego sales y dices: "¡Ahora sí esta mejor!".
En computacion, un plugin es ese abrigo o ese swetter. Algo que te sirve para "abrir" o "navegar" sin que sientas el frío del "no poder".
Tim Lee-Berner sabía que tenía que haber una forma más eficiente de
hacer su trabajo. Su idea, hace ya casi 25 años, dio lugar a la 'World
Wide Web'
Llevaba bastante tiempo dándole vueltas al asunto. Tenía que haber
una forma más fácil y eficiente de llevar a cabo su trabajo. Y si no la
había, la inventaría. Al final, todo es cuestión de remangarse y ponerse
a ello.
Estamos en marzo de 1989 y el escenario es el CERN, el laboratorio de la Organización Europea para la Investigación Nuclear. El protagonista de nuestra historia es Tim Berners-Lee,
encargado de sistemas informáticos (aunque físico de formación,
disciplina en la que se había graduado por la Universidad de Oxford) en
la treintena responsable de que los científicos del centro y los que
venían de fuera pudiesen trabajar conjuntamente a pesar de que sus
ordenadores no utilizasen los mismos sistemas ni se comunicasen entre
sí, como hacen ahora.
“Era un auténtico problema para el CERN
acoplar todos esos ordenadores incompatibles, que además tenían que
funcionar dentro del sistema con el que funcionaba el acelerador de
partículas del laboratorio”, cuenta Mark Mischetti, editor de Scientific American y coautor junto al propio Berners-Lee de un análisis de su invento, la World Wide Web,
con ocasión de su décimo aniversario. La mayor parte del tiempo de
Berners-Lee se iba en esta tarea, así que “Tim pensó que sería mucho más
sencillo si los ordenadores pudieran intercambiar información
directamente”.
Una de las cosas que los ordenadores no hacían es asimilar asociaciones entre cosas dispares, algo que la mente humana sí puede hacer. Así que en los 80 utilicé programas para almacenar información con 'links' aleatorios.
El propio Berners-Lee lo explica en
su página web con otras palabras: "una de las cosas que los ordenadores
no hacían era establecer asociaciones entre cosas dispares, algo que la
mente humana sí puede hacer. Así que en los 80 utilicé algunos
programas para almacenar información con links aleatorios".
Aquel primer desarrolló era una aplicación que le permitía estar al día
de todos los científicos, investigaciones y ordenadores que trabajaban
en el CERN.
¿Por qué no conectarlos todos?
Pero sus
funciones poco después le parecieron demasiado simples y de corto
alcance. ¿No sería posible crear una herramienta que sirviese para todos
los ordenadores por igual? ¿Incluidos los de fuera del CERN? Había que
intentarlo.
En marzo de 1989, Berners-Lee lograba que el CERN
aprobase destinar fondos y dedicar parte de su tiempo de trabajo al
proyecto, que consignó en un informe bajo el anodino título de “Gestión
de la Información: Una Propuesta”. Ese sencillo informe se considera la
semilla que dio lugar a la World Wide Web, hace ya casi 25 años.
“Internet
en sí mismo solo es un conjunto de cables y un protocolo para enviar
información a través de esos cables. La Web sería una aplicación que
funcionaría en internet. Lo que ocurrió fue que se convirtió en la
aplicación principal”, explica Mischetti, añadiendo que otras ya
existían, como el correo electrónico o el FTP.
Las innovaciones que Berners-Lee desarrolló para dar forma a su idea fueron tres: el HTTP (hypertext transfer protocol), que permite que al pinchar sobre un enlace lleguemos a otro documento; las URL (uniform resource location), que son las direcciones por las que encontrar el documento, y el HTML (hypertext markup language), que son las instrucciones por las que se vinculan las páginas y los archivos que contienen.
A finales de 1990, las tres piezas estaban en marcha. El 25 de diciembre de ese año, el informático accedió a la primera página web desde el primer navegador gracias al primer servidor. Su invento funcionaba.
Pantallazo del primer navegador web (Foto: CERN)
La idea de Berners-Lee era, de alguna forma, replicar el funcionamiento
del mercado económico, en el que todo el mundo puede interactuar sin
tener que acudir a un lugar físico, siempre que conozca las reglas del
juego.
El peligro de crear barreras
De modo que
era importante dar a conocer esas reglas. Pasó los siguientes años
viajando a centros universitarios y reuniéndose con empresas y
entusiastas de internet, explicándoles sus desarrollos y convenciéndoles
de que creasen navegadores y servidores con información interconectada.
Muchos programas educativos incluyeron estos nuevos protocolos, como
una forma de conseguir que los alumnos experimentasen (uno de estos
primeros intentos dio lugar posteriormente al popular navegador Netscape).
Pero
algo comenzó a inquietar al desarrollador: la posibilidad de que las
empresas, en su búsqueda de beneficios, no respetarán el espíritu
abierto de su idea, en la que la información se compartía sin barreras.
Si comenzaban a crear sus propias redes y páginas web, o si las hacían
de alguna forma incompatibles con las de otras empresas o de pago, su
proyecto se desvirtuaría.
Para evitarlo, en un movimiento que seguramente
le privó de una más que adinerada jubilación, consiguió que los
responsables del CERN publicasen todo su código fuente, de forma que
cualquier programador del mundo pudiese utilizarlo para sus propios
desarrollos Para evitarlo, en un movimiento que seguramente le privó de una más que
adinerada jubilación anticipada, convenció a los responsables del CERN
de que publicasen todo su código fuente original, de forma que cualquier
programador del mundo pudiese utilizarlo para sus propios desarrollos.
“Pensó que si todo el mundo desarrollaba conjuntamente la Web, ninguna
compañía podría controlarla”, asegura Mischetti.
Los peligros de la red son sociales, no técnicos
Y
tenía razón. La web se convirtió en un instrumento más social que
técnico, cuyo uso se generalizó cuando las compañías de internet
comenzaron a proporcionar de manera gratuita navegadores en sus equipos.
“Enviaban de manera gratuita los programas de navegación, con la
esperanza de que una vez en la Web los usuarios solicitasen servicios
por los que sí cobraban, como el correo electrónico”.
Sin embargo,
no todo salió como Berners-Lee esperaba. En su idea original para la
web, los usuarios creaban contenido al mismo ritmo que lo consumían. Sus
desarrollos permitían publicar y editar texto, no solo leerlo, algo que
tardó casi una década más en ser algo habitual, con la llegada de los
blogs y después de las redes sociales.
Esta falta de barreras y
esa construcción colectiva, sin embargo, han traído a la red no pocos
dilemas que hay que afrontar. Pero en esto su creador no cree que haya
una solución técnica, sino social. “Para Tim, hacer frente a problemas
como la privacidad o la propiedad intelectual no es algo que tenga
arreglo técnico. Primero, necesitas un enfoque social. Si internet está
abierto para la gente buena, también lo está para la mala. […] Lo que
necesitas son leyes y convenciones sociales que guíen el comportamiento
de las personas”, termina Mischetti.
En 1989, Tim Berners-Lee llevaba varios años trabajando en el CERN,
la Organización Europea para la Investigación Nuclear. Aunque Tim era
físico, desde que había finalizado sus estudios universitarios se había
dedicado a trabajar en temas de telecomunicaciones e informática. En
marzo de 1989, Tim escribió un pequeño informe, Information Management: A Proposal, en el que proponía el desarrollo de un sistema distribuido de gestión de la información.
Tim le presentó el informe a su jefe, Mike Sendall. Mike le devolvió a Tim el informe con sólo tres palabras escritas al principio de la primera página, Vague but exciting..., impreciso pero emocionante...
¿Podía ser emocionante un informe lleno de gráficos extraños? ¿Podía ser emocionante un sistema informático?
Justo
25 años después, ahora en el año 2014, estamos celebrando que Tim
Berners-Lee escribió ese pequeño informe. Porque ese pequeño informe que
proponía el desarrollo de un sistema de gestión de la información para
solucionar el problema que existía para compartir la información en el
CERN se transformó en algo enorme, la Web.
Durante mucho tiempo he ayudado y enseñado personas a crear sitios y
diseños web, y durante todo ese tiempo he vivido en una incógnita oscura
que no entiendo, porque las personas utilizan dreamweaver?
La respuesta es desconcertante, y se vuelve un misterio aun mas grande cuando te preguntas a ti mismo, porque las personas relacionan el crear sitios web con dreamweaver?
Es decir porque la mayoría de las personas que no están relacionadas
con el mundo del desarrollo web cree que los sitios web se hacen con
programas en los que tienes que arrastrar botones, imágenes, ponerle
colores y listo! tienes tu pagina web en minutos. Pero NO!, no es asi
El motivo por el cual hago este post es porque es un poco fastidioso
que cuando les digo que soy desarrollador web me pregunten: Con que
programa haces los sitios web?. Pero no tengo otra opción mas que
quedarme callado, aguantar la respiración y decirles, no, los sitios web
no se crean con programas, hay programas que sirven como herramienta,
pero tu tienes que programar los sitios, CON CÓDIGO!.
Así que si tu eres una persona que utiliza dreamweaver seguramente
veras este post y te tratare de convencer (por un mundo mejor) que dejes
de utilizar dreamweaver y comiences a aprender a crear sitios desde 0,
desde lo mas básico, desde html y css en un editor de código.
Razones por las que no debes utilizar Dreamweaver (por un mundo mejor).
1.- Con Dreamweaver nunca sabrás que demonios el programa hizo.
Quieres aprender a hacer paginas web profesionales completamente maravillosas?
Para poder hacerlo tienes que conocer como es que están conformados los
sitios web, cual es su código, que orden debe llevar, como funcionan
los elementos, y un sin fin de cosas mas. La mayoría de las personas que
usa DW (dreamweaver) simplemente abre el editor visual y comienza a
agregar textos y botones, sin saber realmente que esta pasando. Debes entender html y css, debes saber cual es la estructura de un sitio para poder modificarlo fácilmente y poder aprender mas sobre verdaderos sitios web.
El problema con dreamweaver en su editor visual es que por mas que
trate de simplificar el crear un sitio web no lo lograra porque para
poder utilizar el editor visual sin tener errores en el código, con una
buena semántica (orden de los elementos en el codigo) es saber utilizar
el programa y su editor visual al 100%, esto significa que no puedes
llegar y simplemente agregar botones, textos imágenes y ya, NO!. Tienes que saber que tipos de elementos agregar y como.
2.- Para programar un sitio web, solo necesitas de un espacio donde
escribir código, no necesitas de tantos botones y menús que nunca te
servirán.
Es enserio, que no te vendan una interfaz llena de botones y
menús, para hacer sitios web y desarrollo, solo necesitas un espacio
donde escribir código y que lo puedas guardar en formato.html,
.css, .js, etc. Uno de los problemas de dreamweaver es ese, que te
permite guardar como proyecto, y las personas creen que un proyecto es
un sitio, y eso es falso!, ademas de que dreamweaver por defecto no te
guarda con codificación UTF-8, cosa que es increíble, pero bueno no
podemos hacer nada. (ok si que podemos, cambiar de esa basura a un
editor de código genial!)
3.- Simplemente es malo!, no se actualiza, no esta al tanto de las nuevas tecnologías y estándares.
Para mi gusto una de las peores cosas que tiene dreamweaver es que si
tienes la version CS# y sale un nuevo estándar o algún cambio súper
genial en las tecnologías no lo puedes utilizar en DW, en ciertos casos,
claro, la sintaxis te marca errores o cosas asi que son incomodas y estorbosas.
Claro que DW se actualiza, pero para eso tienes que comprar una nueva
licencia del software actualizado (o como decía un amigo) “Comprar en
taringa el programa”. Ah y para no agregarle mas texto, también resumo
con decir que tiene muy pocos plugins que faciliten la tarea de escribir
código.
4.- Es difícil y confuso de configurar
Al menos para los usuarios que no tienen conocimientos profundos en
el desarrollo web (que son la mayoría de los que utilizan dreamweaver).
Esto es cierto, dreamweaver durante muchos años vendió la idea de tener
súper poderosas herramientas para crear proyectos web, que podía
conectarse con servidores ftp y bla bla, como si esto fuera muy difícil
de hacer si no tenias dreamweaver, pero la verdad es que es muy fácil
configurar un proyecto fuera de DW, incluso es mas complicado y confuso
hacerlo dentro de DW, si algo salio mal es algo complicado saber en
donde esta el error.
5.- Si tienes Dreamweaver seguramente sea de forma ilegal o de otra forma estas pagando mucho dinero por algo obsoleto.
Me pregunto porque tantas personas tienen dreamweaver cuando es un programa con una licencia de Adobe tan cara.
No creo que los usuarios en su gran entusiasmo por iniciar en la web
hayan decidido comprar una licencia. O quizás uno en un millón si, pero
en verdad vale la pena pagar tanto dinero por algo asi? La mayoría de los actuales editores de código profesionales son gratuitos,
algunos son de paga, pero pagas una vez una cantidad muy baja comparada
a la de DW y tienes el programa de por vida, incluyendo
actualizaciones!
6.- Es demasiado pesado
Normalmente alguien que se dedica a alguna rama dentro de la
informática y la tecnologia suele tener un buen ordenador, rápido y
potente (no en todos los casos pero en la mayoría). Pero las personas
que recién se inician no suelen tener este tipo de ordenadores de la
NASA súper potentes y feroces, asi que porque si no tienes la mejor
computadora del mundo deberías utilizar un programa tan pesado que te
consume todos los recursos como dreamweaver? Dreamweaver es muy pesado
porque desde la empresa Macromedia hasta Adobe han plagado de
herramientas necesarias este programa, han intentado hacer un All in One
(todo en uno) con el resultado desastroso de conseguir hacer un
programa tan pesado.
Esta bien Carlos, haz cambiado mi vida, me haz iluminado, pero que debo hacer ahora?
Es muy sencillo, lo único que debes hacer es aprender HTML y CSS (si quieres profundizar aprendes Javascript), desinstalar Dreamweaver y utilizar algún editor de código decente y propio para un desarrollador web.
Aquí te dejo una lista de los editores de código que recomiendo:
SublimeText (Es de paga, pero es muy barato y ademas si no lo compras puedes utilizarlo indefinidamente sin problemas): http://www.sublimetext.com/
Brackets (Ideal si quieres algo fancy, bonito y muy util para el diseño web) http://brackets.io/
Atom (Es nuevo, pero promete mucho) https://atom.io/
Notepad++ (Muy bueno si te estas iniciando) http://notepad-plus-plus.org/
En diseño web, un wireframe (en español se puede traducir por esquema de la página o plano de la pantalla, aunque no se suelen usar estos términos), es un dibujo o esquema que representa el esqueleto o estructura visual de un sitio web (un conjunto de páginas web) o de una página web concreta. El wireframe suele carecer de aspectos visuales como estilo tipográfico, colores e imágenes, ya que su propósito es servir de apoyo para discutir el contenido, funcionalidad y comportamiento de un sitio web o de una página web.
Cuando uno recién comienza en el desarrollo web no comprende muchos términos, como por ejemplofront-end y back-end, términos que son fundamentales en el desarrollo web y que toda persona debería conocer. Es por eso que en este post te explicare que es Front-End y que es Back-End asi como las diferencias y las habilidades que se necesitan para cada área.
¿ Que es Front-End ?
Bien pues front-end es la parte del desarrollo web que se dedica de la parte frontal de un sitio web, en pocas palabras del diseño de un sitio web, desde la estructura del sitio hasta los estilos como colores, fondos, tamaños hasta llegar a las animaciones y efectos.
Un front-end entonces es la persona que se dedica básicamente al “diseño web”, pero esto no signifique que no toque código, tanto el front-end como el back-end están en contacto con código todo el tiempo, dentro del área de front-end se trabaja con lenguajes mayormente del lado del cliente, como HTML y CSS para darle estructura y estilo al sitio, y Javascript para complementar los anteriores y darle dinamismo a los sitios web. Me gustaría aclarar una cosa en este punto, HTML y CSS son lenguajes pero no de programacion, son lenguajes de marcado y estilo. Solo Javascript es un lenguaje de programacion, y este ultimo es en donde se requiere realmente una logica de programacion. Aunque no es nada de tener miedo.
Ya comentamos los lenguajes utilizados en el front-end ahora pasemos con las herramientas, la parte del front-end es mas artística y creativa, una gran parte se centra en hacer sitios bonitos y amigables, resumamos en elementos visuales. ¿Y a que están relacionados los elementos visuales o gráficos? pues como su nombre lo dice a herramientas de diseño gráfico como Ilustrator y Photoshop. Y para el código editores de código como es obvio.
El flujo de trabajo de un front-end puede variar pero la mayoría del tiempo es diseñar bocetos, transformarlos en prototipos y por ultimo transformar la idea en un sitio web.
¿ Que es Back-End ?
Ya hablamos sobre FrontEnd y el trabajo que desempeña, ahora pasemos al Back-End, el lado opuesto.El Back-End es el área que se dedica a la parte lógica de un sitio web, es el encargado de que todo funcione como debería, el back-end es la parte de atrás que de alguna manera no es visible para el usuario ya que no se trata de diseño, o elementos gráficos, se trata de programar las funciones que tendrá un sitio. El Back-End es la programacion dura y pura, desde la programacion de las funciones del sitio hasta bases de datos e incluso mas.
El Back-end trabaja todo el tiempo con lenguajes de programacion, lenguajes que requieren de una lógica ya que esta área es también la encargada de optimizar recursos, de la seguridad de un sitio y demás. Cosas que el usuario no ve de primeras pero que existe código detrás que esta haciendo su trabajo.
Los lenguajes de programacion que se utilizan en el Back-end en la actualidad son PHP, Javascript, Phyton y Ruby. Ademas de HTML y CSS, que aunque básico, también deben saber al menos un poco. Aquí me gustaría hablar de 2 cosas, primero que nada, yo he mencionado 4 lenguajes de programacion, pero no son todos los que existen y no es obligatorio utilizar todos y cada uno de ellos, hay programadores back-end que solo saben algunos, no es necesario saber todos, depende de lo que se quiera programar y de las capacidades del lenguaje. Como segunda cosa que me gustaría comentar es que aunque el Back-End también debe saber de HTML y CSS, no es necesario saber a un nivel alto como lo haría un Front-End, es simplemente para poder crear una estructura básica en la que trabajar.
Las herramientas que se utilizan en el Back-end son editores de código, compiladores, algunos debuggeadores para revisar errores y seguridad, gestores de bases de datos y algunas otras cosas.
El flujo de trabajo de un back-end consiste en darle funciones a un sitio, por lo general el front-end hace un sitio estático, y el back-end después le da funciones y adapta el sistema programado a ese sitio web. Es por eso que las personas que se dedican al back-end también tienen que tener conocimientos al menos básicos de front-end. Para poder juntar las 2 partes en 1.
¿ Que es mejor Back-End o Front-End ?
Las 2 son importantes y se complementan la una o la otra, por una parte queremos tener sitios web bonitos y amigables y por la otra parte queremos que esos sitios sean funcionales y puedan realizar operaciones. Esta pregunta la decidí agregar porque la gente normalmente piensa que un back-end es mejor que un front-end o que se puede ganar mas dinero en una que en otra, pero al realidad es que asi no funcionan las cosas. La forma en que se puede ganar mas dinero y se puede determinar cual área es mejor, es elección propia y dependiendo de las habilidades de cada persona.
Con esto me gustaría hacer referencia a algo que muchos ya conocemos, los 2 hemisferios del cerebro, el izquierdo y derecho, no voy entrar mucho en detalle asi que lo simplificare en lo siguiente, cada persona tiene mas desarrollado un hemisferio de los 2 que tenemos, un hemisferio es mas capaz de realizar tareas creativas, mientras que el otro es mas capaz de realizar tareas lógicas. Para poder ser bueno en un área primero tienes que identificar que tipo de persona eres y que tipo de inteligencia tienes, eres una persona creativa? o eres una persona mas logica?
En el front-end se necesitan personas con esta capacidad creativa y en el back-end se necesitan personas con muy buena lógica para resolver problemas. Si entras en un área que no te gusta vas a ser malo en esa área. En cambio si te gusta esa área vas a ser mejor y entonces vas a poder cobrar mas dinero. Todo depende de que tanto te guste y que tan bueno seas.
Ahora, hay personas creativas que quieren ser back-ends, asi como hay personas lógicas que quieren ser front-ends, y la buena noticia es que si pueden hacerlo, y asi como te fui sincero con la anterior oración también sere sincero con esto, y es que aunque una persona lógica puede ser front-end y una creativa puede ser back-end, la realidad es que les va a costar mas trabajo, en verdad va a ser mas difícil y todo dependerá de la motivación de una persona para ir entrenando su cerebro con algo nuevo. Es posible, si que lo es, pero muchas personas se desaniman porque no entienden, la verdad es que no practicaron lo suficiente para aprender esa habilidad.
Y si tu determinante es el tiempo o dinero tengo que decirte que ambos tienen una vida frente la computadora muchas pero muchas horas, y ambos ganan lo que se merecen y eso depende de que tan buenos sean.
Hablar de front-end y back-end es un tema muy complejo, me gustaría seguir hablando de el, asi que si tienes preguntas, sugerencias, lo que sea, escribelo en los comentarios y yo te responderé.