13/12/2019, 05:29:32 pm *
Bienvenido(a), Visitante. Por favor, ingresa o regístrate.

Ingresar con nombre de usuario, contraseña y duración de la sesión
Noticias: Puedes practicar LATEX con el cómodo editor de Latex online
 
 
Páginas: 1 [2] 3 4 ... 32   Ir Abajo
  Imprimir  
Autor Tema: ¿Qué esquema mental de la matemática tenemos cada uno de nosotros?  (Leído 128174 veces)
0 Usuarios y 1 Visitante están viendo este tema.
Ser Humano
Semi pleno
***

Karma: +0/-0
Desconectado Desconectado

Sexo: Masculino
Argentina Argentina

Mensajes: 61

intentando comprender


Ver Perfil
« Respuesta #20 : 01/08/2010, 03:43:05 am »

Hola otra vez :sonrisa: .

En principio, empiezo por aclarar algo que noto que no aclaré en el mensaje anterior; cuando digo "hacer referencia a algo", no me refiero a que "ese algo" sea perceptible, ni notable empíricamente, sino que sería suficiente con que se tenga una noción "sobre ese algo" (como por ejemplo, la forma en que se "relaciona" con otros entes).

Cita
Cuando uno demuestra teoremas o define objetos matemáticos, en realidad no hace más que manipulaciones de símbolos.
Pero justamente ésto es lo que no puedo notar; en el ejemplo de infinito, queda bastante claro "a que se hace referencia", exponiendo cuales son las cualidades del conjunto en cuestión. Por ejemplo, de nada serviría que defina a un conjunto infinito como [texx](&%$·)[/texx], si ese símbolo (o conjunto de símbolos) no hacen referencia a ninguna noción.

Cita
El "significado" o "sentido" que le damos es accesorio. Es quizá lo que en definitiva enriquece a la matemática y la hace bella.
Después de todo, poner ristras de símbolos sin significado no tiene nada de hermoso, claro está.
Pero resultaría de alguna forma útil definir algo a partir de símbolos sin que ellos conlleven ninguna noción? de que forma podríamos (justificadamente) relacionar esos símbolos sin sentido con las nociones que tenemos?. Esa justificación está (al menos como lo noto ahora) en la lógica cuando se trata de relacionar nociones, pero la misma no es útil para relacionar no-nociones con nociones.

Cita
Más aún, lo que critico es que esa frialdad en las fórmulas como la de arriba, no puede aplicarse directamente, sin previo aviso o consideración, a objetos concretos de la realidad.
Lo que puedo notar es que muchos entes que se definen de forma matemática, tienen cualidades que son compartidos por varios entes perceptibles (que además tienen otras cualidades, las cuales les permiten diferenciarse), y si esas cualidades implican algo, o se relacionan con otras de alguna forma, todo ente que presenta las mismas, incluso en la percepción, implicará o se relacionará de la misma forma. Claro que los casos que se pueden "explicar" de ésta forma son los menos. Tal vez no es que el "exterior" coincide con nuestra lógica, sino que nuestra lógica, como herramienta de adaptación al ambiente, coincide con éste (sí, se de la simetría de la igualdad :cara_de_queso:, pero creo que se entiende a lo que me refiero) .

Cita
Lo mismo acontece con el uso de números y cardinales al hablar de símbolos escritos en un papel.
Pero lo grave del asunto es que esos mismos símbolos se usan después para formalizar el concepto de número y de cardinal... y la cabeza me da vueltas.
A mi parecer, se tiene, incluso antes de analizar el tema, las nociones de cardinal, numeros, y símbolos (valga la redundancia :cara_de_queso:). Pero además se puede notar como éstas nociones están íntimamente relacionadas. Entonces, me parece que el error ésta en intentar definir una a partir de la otra, en cambio de establecer un símbolo que represente a cada una de las nociones y despues escribir la forma en que se relacionan entre ellas. Porque si para nosotros mismos dichas nociones son irreductibles a otras, no va a haber forma que simbolicamente se exprese eso.

Cita
Al interpretar símbolos como ciertas entidades matemáticas "ideales", se entra necesariamente en el "platonismo", que presupone que los objetos matemáticas existen realmente en algún lugar, y que la lógica sólo se ocupa de "expresar con un lenguaje limitado hechos de una realidad matemática superior".
No necesariamente, si se confía en la capacidad del ser humano de abstraer (en el sentido aristotelico), es decir del poder distinguir patrones, regularidades, cualidades generales.

Cita
¿por qué usamos los razonamientos que usamos? ¿Por qué los consideramos correctos? ¿Cómo ha de darse un razonamiento para que sea correcto?
Es que el punto estaría justamente ahí ¿a que consideramos "correcto"?. Por ejemplo, si yo se que existe [texx]a[/texx], es correcto decir que es falso que [texx]a[/texx] no existe ¿por que? porque se ajusta a las nociones previas que tenemos y a la forma en que "se relacionan" dichas nociones, lo que es objeto de estudio de la lógica. Las ramas de la matemática que pude leer, son lógica, aplicada a cierto tipo de nociones previas.
Por otro lado creo que la relevancia del tipo de razonamiento implementado está fundamentalmente en la utilidad de éste. Se que existen "lógicas" imposibles de aplicar, con axiomas diferentes a la lógica usual, pero mi conocimiento acerca de ello es practicamente total.

Cita
No sé respecto a qué, o en qué sentido se puede hablar de la validez de la lógica.
Fue un problema de expresión mío. No me refería a la validez en lógica formal, lo que ineludiblemente me hace recordar a las tablas de verdad :cara_de_queso: , sino que me refería a la correspondencia entre lo implementado en la demostración y los resultados de la lógica. En el momento de realizar la demostración se tienen en cuanta las nociones previas y dicha correspondencia.

Cita
Pero la cuestión es que los lógicos mismos investigan esto, y hacen aseveraciones muy complejas "en el aire", y "razonan" como si todos estuviéramos de acuerdo en lo que se entiende por "cadena finita de signos", "número natural", entre otras cuestiones.
Pero ¿qué es lo que usan para razonar?¿la misma lógica que están evaluando? porque de ser así, a priori están aceptando la validez de la lógica para autoevaluarse (nuevamente, no me refiero a la logica formal, sino a la implementación de sus axiomas para concluir proposiciones nuevas).

Cita
Mas, sigue haciendo las mismas cosas que siempre me ponen nervioso: usa subíndices de números naturales, usa la idea de "numerable", efectúa modelos que son "conjuntos".
No es que pretenda insistir demasiado sobre lo mismo :cara_de_queso: , sino que no estoy seguro de haber dejado bien en claro cual era mi perspectiva de éstas cosas (por el momento, claro); Más que definiciones circulares, yo noto una relación "íntima" entre dos (o más) nociones que nos son irreductibles. No sé si será el caso de lo que estas leyendo ahora, pero por ejemplo la noción de cardinal me parece que tiene ésta característica y tiene una íntima relación con la noción de conjunto.

Bueno, me voy a descansar.

+ Saludos,
En línea
Jabato
Visitante
« Respuesta #21 : 01/08/2010, 04:06:45 am »

Es que ser humano dijo algo a lo que me tengo que adherir incondicionalmente. La validez de la lógica parece que debería aceptarse como axioma, sería pues el primer axioma de la matemática, axioma que debe aceptarse por definición. ¿Como de otra forma vas a fundamentar la lógica? Creo que es imposible.

Lo segundo es que no entiendo el porqué te escandalizas cuando los lógicos usan los conceptos matemáticos. Los números están ahí solidamente fundamentados para que los use quien mejor lo estime, los lógicos también por supuesto. El error quizás esté en tratar de dar fundamento a la lógica, no en usar los conceptos matemáticos.

Saludos, Jabato. :sonrisa_amplia:
En línea
argentinator
Consultar la FIRMAPEDIA __________________________________________________________________________________________________________________
Administrador
Pleno*
*****

Karma: +0/-0
Desconectado Desconectado

Sexo: Masculino
Argentina Argentina

Mensajes: 7.282

Vean mis posts activos en mi página personal


Ver Perfil WWW
« Respuesta #22 : 01/08/2010, 04:39:30 am »

Cita
Cuando uno demuestra teoremas o define objetos matemáticos, en realidad no hace más que manipulaciones de símbolos.
Pero justamente ésto es lo que no puedo notar; en el ejemplo de infinito, queda bastante claro "a que se hace referencia", exponiendo cuales son las cualidades del conjunto en cuestión. Por ejemplo, de nada serviría que defina a un conjunto infinito como [texx](&%$·)[/texx], si ese símbolo (o conjunto de símbolos) no hacen referencia a ninguna noción.

Suponte que has demostrado el teorema siguiente "Si A es finito, entonces todo subconjunto B de A es también finito". En símbolos lógicos duros y fríos, eso se escribe así:

[texx](\#A < \infty) \Longrightarrow{\forall{B\subset A}(\# B< \infty)}[/texx]

Para llegar a demostrar eso, en la demostración lo único que has hecho es "encadenar proposiciones lógicas", que no son más que "símbolos encadenados en una fila".
Cuando has terminado la demostración, usando los principios de la lógica, has llegado a la conclusión que escribí ahí arriba.

Ahora bien, ese Teorema sigue siendo lógicamente válido aún si yo cambio esos símbolos que figuran ahí por otros, con tal de que la estructura lógica sea la misma.
Y eso es así porque las leyes de inferencia lógica son "meramente formales", o sea, se ocupan sólo de la forma de las expresiones, y no de su "contenido".

La lógica no se preocupa de si se hace referencia a "algo" externo, o con sentido para intuitivo para alguien.
Es mero cálculo, que transforma unas hileras de caracteres en otras. Eso es en definitiva una "demostración", y es algo que una computadora puede hacer, porque se trata de una actividad sistemática, sintáctica, sin significado.

La computadora no sabe ni entiende el significado de "infinito", pero puede hacer la demostración del resultado de finitud de cardinales anterior, y también puede hacer demostraciones de teoremas que hablan de conjuntos infinitos.

No sé cómo ves la lógica matemática, pero en todo caso hago un recordatorio.
Hay unas expresiones que se forman mediante ciertas reglas sintácticas: algunas expresiones tienen sentido lógico y otras se tiran a la basura (algo como  [texx] \forall{\in{\in{\exists{\supset{xx\emptyset}}}}}[/texx] no tiene sentido lógico, son signos puestos al azar).

Dentro de las expresiones válidas, hay algunas que se toman como "Axiomas lógicos", por ejemplo, algo como [texx]p\Rightarrow{}(q \Rightarrow{ p})[/texx], para p, q proposiciones, se toma como uno de los Axiomas lógicos.

A este nivel de cosas, no existen valores de verdad de esas proposiciones.
No hay proposiciones ni verdaderas ni falsas, no hay nada.

Sólo hay axiomas lógicos, y luego se agregan unas reglas de inferencia, que simplemente permiten transformar ciertas proposiciones en otras. (Modus Ponens, Generalización).

La demostración de que todo subconjunto de un conjunto finito es también finito, puede hacerse mediante estas transformaciones de símbolos, sin siquiera preguntarse si eso es verdadero o falso, y sin siquiera preguntarse sobre el significado de lo finito y lo infinito.

Pero aquí no se habla de verdad o falsedad alguna, y la inferencia misma no se sabe si es correcta o no. Es una mera transformación de signos, que una máquina puede hacer.

Más tarde se agregan valores de verdad a las proposiciones, y se les adjudican valores Verdadero y Falso.

Una regla de inferencia es válida siempre que de premisas verdaderas se concluyan tesis verdaderas.

Pero aún así, que sean verdaderas o falsas esas proposiciones, no necesita hacer referencia a noción alguna.

Los lógicas llaman "modelos" a lo que vos estás llamando "nociones", o sea, "interpretaciones concretas" del formulerío lógico.

Resulta que todo lo que es demostrable en el formulerío lógico, es verdadero en un modelo válido para la teoría correspondiente.

O sea que está todo algo "separado": sintaxis, verdad, modelos.

Hay también modelos de la "realidad" a los que se aplica una teoría.
Pero estos son algo distintos.
En realidad nunca hay una completa identificación con una situación real y una teoría matemática, porque para "modelar" una situación real se hacen muchas simplificaciones.

Cita
Pero resultaría de alguna forma útil definir algo a partir de símbolos sin que ellos conlleven ninguna noción? de que forma podríamos (justificadamente) relacionar esos símbolos sin sentido con las nociones que tenemos?. Esa justificación está (al menos como lo noto ahora) en la lógica cuando se trata de relacionar nociones, pero la misma no es útil para relacionar no-nociones con nociones.

Justamente, ese es el dilema que tengo. No puedo relacionar ciertas expresiones frías de la lógica con "nociones" de la vida real, o intuiciones que parecen claras.

No es lo mismo la definición de "infinito" con una fórmula, que la intuición de infinito.
Como muchos pensadores han dicho, la intuición de infinito arroja ambigüedades o dudas.
En cambio, una fórmula lógica fría que defina infinitud de un conjunto, no tiene objeción.
Ni siquiera importa si se refiere a algo realmente infinito.

No entiendo qué quisiste decir con "no-nociones".


Cita
Lo que puedo notar es que muchos entes que se definen de forma matemática, tienen cualidades que son compartidos por varios entes perceptibles (que además tienen otras cualidades, las cuales les permiten diferenciarse), y si esas cualidades implican algo, o se relacionan con otras de alguna forma, todo ente que presenta las mismas, incluso en la percepción, implicará o se relacionará de la misma forma.

Bueno, los entes perceptibles no los percibimos con precisión, y de lo poco que percibimos de ellos, descartamos muchas propiedades o cualidades complejas, y nos quedamos con algunas simples.
Luego las "representamos" matemáticamente, pero eso no es lo mismo que decir que "coinciden".

Un tipico modelo de crecimiento de poblaciones es [texx]P(t) = ce^{at}[/texx], siendo a, c, unas constantes.
La población de un país dado podría modelarse con esa fórmula.
Pero supongamos que a = c = 1, para simplificar. En la mayoría de los instantes t, la población P(t) sería un número fraccionario. Por ejemplo, P(t) = 2.71.... si t = 1.
¿Acaso hay 2.71 personas tras t = 1 año?
No puede haber una cantidad fraccionaria de personas.

Y en general los modelos aplicados a la realidad son así, meras aproximaciones o estimaciones.
Se pueden pulir, mejorar, pero ¿identificar?
Identificar un modelo con la matemática equivaldría a decir que la realidad es una porción de teoría matemática. O sea, estaríamos "viviendo" en un Universo matemático, del cual somos testigos de sólo una parte.

Cita
A mi parecer, se tiene, incluso antes de analizar el tema, las nociones de cardinal, numeros, y símbolos (valga la redundancia :cara_de_queso:). Pero además se puede notar como éstas nociones están íntimamente relacionadas. Entonces, me parece que el error ésta en intentar definir una a partir de la otra, en cambio de establecer un símbolo que represente a cada una de las nociones y despues escribir la forma en que se relacionan entre ellas. Porque si para nosotros mismos dichas nociones son irreductibles a otras, no va a haber forma que simbolicamente se exprese eso.

Bueno, esto que has dicho me parece que tiene mucho sentido.
Sin embargo en los textos de lógica no veo que este asunto se analice tal y como vos lo has hecho con esas palabras tan claras.
Me quejo de que nadie siquiera parezca preocuparse de este tipo de cosas.

Será que estoy leyendo los libros equivocados... O a lo mejor tengo que irme a textos más filosóficos.
Hay mucho que ver todavía.

Pero justamente eso que has dicho es uno de los meollos de todo el asunto.

Ahora bien, ¿cómo discernir qué es irreducible y qué no lo es?
Eso daría algo de solidez al asunto.

Para los intuicionistas, la noción de número natural es irreducible.
Pero ellos por ejemplo no aceptan que la doble negación de una afirmación P sea lógicamente equivalente a la afirmación de P, cosa que parece de lo más "lógica".

Así que, si no hay acuerdo en cuáles son las reglas de la lógica, poco se puede hacer tan sólo asumiendo que "existen entidades matemáticas irreducibles".
Habría que decir o especificar "cuáles" son las que se consideran irreducibles, y que la gente se ponga de acuerdo de una vez por todas.

Cita
Cita
Al interpretar símbolos como ciertas entidades matemáticas "ideales", se entra necesariamente en el "platonismo", que presupone que los objetos matemáticas existen realmente en algún lugar, y que la lógica sólo se ocupa de "expresar con un lenguaje limitado hechos de una realidad matemática superior".
No necesariamente, si se confía en la capacidad del ser humano de abstraer (en el sentido aristotelico), es decir del poder distinguir patrones, regularidades, cualidades generales.

Me encantó esto que dijiste.

Esta capacidad de abstracción se la nombra en forma "genérica", y pienso que debería tener una presencia más activa en los fundamentos de la lógica, tal como lo tienen los axiomas lógicas, las fórmulas de primer orden, y toda la historia.
Hay una gran cuota de abstracción al permitir "álgebras de lógica" en las interpretaciones o modelos de las distintas lógicas, pero aún así, el "acto de abstraer" no está considerado o estudiado al grado que a mí me gustaría.

En cuanto a los patrones que un ser humano puede distinguir quizá sean sólo los que "prefiere" distinguir.
Me refiero a que puede haber autolimitaciones psicológicas y culturales que orienten al ser humano a ver unos patrones y no otros.
Más aún si se trata de costumbres, o cosas enseñadas o inculcadas.

Cuando pienso en ciertos niños que tienen "dificultad" para las matemáticas, me pregunto si en realidad no son los demás que tienen "dificultad" para entender la forma de ver la realidad de esos niños.
Quizá al "meterle" nuestra matemática en la cabeza a esos niños, los estamos atrofiando.

Cita
Cita
¿por qué usamos los razonamientos que usamos? ¿Por qué los consideramos correctos? ¿Cómo ha de darse un razonamiento para que sea correcto?
Es que el punto estaría justamente ahí ¿a que consideramos "correcto"?. Por ejemplo, si yo se que existe [texx]a[/texx], es correcto decir que es falso que [texx]a[/texx] no existe ¿por que? porque se ajusta a las nociones previas que tenemos y a la forma en que "se relacionan" dichas nociones, lo que es objeto de estudio de la lógica. Las ramas de la matemática que pude leer, son lógica, aplicada a cierto tipo de nociones previas.
Por otro lado creo que la relevancia del tipo de razonamiento implementado está fundamentalmente en la utilidad de éste. Se que existen "lógicas" imposibles de aplicar, con axiomas diferentes a la lógica usual, pero mi desconocimiento acerca de ello es practicamente total.

Lo de la "relevancia" que has mencionado no tiene discusión.
Cada aplicación con su teoría...

Pero el problema teórico en torno a "una" lógica dada (que las hay muchas y distintas) es determinar si no es una "porquería" como mecanismo de inferencia.
Imaginate una lógica que permitiera demostrar todas las proposiones de ella, junto con las negaciones.
¿A quién le puede interesar?
Es una lógica posible, pero no la usaríamos como una lógica válida.

Así que la validez de una lógica no se ha de mirar sólo en relación a qué se la ha de aplicar, sino que también ha de haber criterios intrínsecos a ella, digo, internos, propiedades inherentes a dicha lógica en cuestión, que digan si es válida o no, en algùn sentido.


Cita
Cita
Pero la cuestión es que los lógicos mismos investigan esto, y hacen aseveraciones muy complejas "en el aire", y "razonan" como si todos estuviéramos de acuerdo en lo que se entiende por "cadena finita de signos", "número natural", entre otras cuestiones.
Pero ¿qué es lo que usan para razonar?¿la misma lógica que están evaluando? porque de ser así, a priori están aceptando la validez de la lógica para autoevaluarse (nuevamente, no me refiero a la logica formal, sino a la implementación de sus axiomas para concluir proposiciones nuevas).

Claro, eso es lo que hacen, y eso es lo que no logro aceptar.

Cita
Cita
Mas, sigue haciendo las mismas cosas que siempre me ponen nervioso: usa subíndices de números naturales, usa la idea de "numerable", efectúa modelos que son "conjuntos".
No es que pretenda insistir demasiado sobre lo mismo :cara_de_queso: , sino que no estoy seguro de haber dejado bien en claro cual era mi perspectiva de éstas cosas (por el momento, claro); Más que definiciones circulares, yo noto una relación "íntima" entre dos (o más) nociones que nos son irreductibles. No sé si será el caso de lo que estas leyendo ahora, pero por ejemplo la noción de cardinal me parece que tiene ésta característica y tiene una íntima relación con la noción de conjunto.

Es que justamente de eso se trata.
La relación es tan íntima que no se puede uno "depegar" de una cosa para formalizar la otra.

Sin embargo, habría que intentar "despegar" todo lo que está "pegado", por razones que luego expondré.

Creo que los fundamentos de la lógica están en una etapa "interesante" pero ingenua.
En línea

argentinator
Consultar la FIRMAPEDIA __________________________________________________________________________________________________________________
Administrador
Pleno*
*****

Karma: +0/-0
Desconectado Desconectado

Sexo: Masculino
Argentina Argentina

Mensajes: 7.282

Vean mis posts activos en mi página personal


Ver Perfil WWW
« Respuesta #23 : 01/08/2010, 04:52:25 am »

Aclaro cosas que dejé colgadas.

Hay al menos dos lógicas distintas (en realidad hay muchas).
Tenemos por ejemplo la lógica proposicional clásica, que podemos llamar PL, y la lógica intuicinista, que podemos indicar con IL.

La lógica intuicionista admite todas las reglas de razonamiento que la PL, excepto la de la doble negación: [texx]\sim{\sim{p}}\Longleftrightarrow{p}[/texx].
En IL eso no se acepta, pero en PL sí, pues es lo que nos permite demostrar por reducción al absurdo.

Ahora bien, supongamos que estamos construyendo la lógica de primer orden, inventando sus axiomas, expresiones y símbolos.
Luego pretendemos razonar acerca de esas expresiones.

Para razonar, necesitamos reglas "previas de razonamiento" a las que estamos por inventar en la lógica de primer orden.

O sea, estamos por inventar PL, así que no tenemos PL.
¿Podemos usar PL para razonar sobre el lenguaje que estamos construyendo?

Quizá sí.
Pero ahora yo me pregunto, ya que estamos razonando con la lógica PL (sin permiso de nadie) ¿pòr qué no usamos mejor IL?
¿O por qué no usamos incluso cualquier otra lógica mientras demostramos teoremas acerca de la lógica misma?



Otra cosa que me preocupa son los cardinales.

En la metamatemática uno no sólo "razona", sino que también se hacen afirmaciones acerca de "modelos" que pueden ser infinitos, e incluso se demuestran teoremas que aluden  a cierta "cardinalidad" del conjunto que sirve de "modelo" para una teoría lógica.

Ahora bien, se habla de cardinales como si fueran algo establecido en forma única, sin duda alguna ni ambiguedad.

Pero eso no puede tomarse a la ligera, porque se sabe que hay teorías de conjuntos en los que hay más cardinales o menos que en otras.
Así que la noción de "cardinal" no es clara, es ambigua.

¿Cómo es entonces que se habla de cardinales así como así en ciertos teoremas de metamatemática? ¿Basados en cuál teoría de conjuntos? ¿En cuáles cardinales?



Y para rematar, están los mismos números naturales que se usan como subíndices en toda la teoría metamatemática.
Se usan propiedades de ellos que aún no se han demostrado.

Pero las propiedades que uno conoce o demuestra de los naturales bien pueden depender de los axiomas empleados, u otras circunstancias.
Y ni siquiera se puede probar que los números sean algo "consistente".

¿Cómo se los usa impunemente en etapas constructivas de la matemática, si encierran dilemas estructurales y teóricos que no son triviales en lo absoluto?
En línea

argentinator
Consultar la FIRMAPEDIA __________________________________________________________________________________________________________________
Administrador
Pleno*
*****

Karma: +0/-0
Desconectado Desconectado

Sexo: Masculino
Argentina Argentina

Mensajes: 7.282

Vean mis posts activos en mi página personal


Ver Perfil WWW
« Respuesta #24 : 01/08/2010, 05:00:56 am »

Es que ser humano dijo algo a lo que me tengo que adherir incondicionalmente. La validez de la lógica parece que debería aceptarse como axioma, sería pues el primer axioma de la matemática, axioma que debe aceptarse por definición. ¿Como de otra forma vas a fundamentar la lógica? Creo que es imposible.

Lo segundo es que no entiendo el porqué te escandalizas cuando los lógicos usan los conceptos matemáticos. Los números están ahí solidamente fundamentados para que los use quien mejor lo estime, los lógicos también por supuesto. El error quizás esté en tratar de dar fundamento a la lógica, no en usar los conceptos matemáticos.

Saludos, Jabato. :sonrisa_amplia:

Mi post anterior no iba dirigido a vos, pero creo que sirve al menos como parte de la respuesta a lo que me estás diciendo.

Pero repito esto: quizá yo podría quedarme tranquilo aceptando la validez universal de "la" lógica, si es que hubiera una sola lógica posible.

Pero el problema es que hay varias, y no hay acuerdo en cuál es la mejor.
Y entonces no entiendo por qué los lógicos "metarrazonan" usando preferentemente sólo una de las tantas lógicas posibles.
Es una elección arbitraria.

En cuanto a usar o no los números, también depende de qué propiedades se acepten o no de ellos.

Los constructivistas aceptan los números naturales como lo más básico de la matemática, incluso más que la lógica, pero no aceptan ciertas demostraciones, ni ciertas conclusiones.
Sólo aquellas que verifican ciertos criterios de "constructibilidad".

Así que, ¿cuál sistema de números naturales tengo que elegir, el de los intuicionistas, o el que usamos en el trabajo matemático corriente?

Si los lógicos eligen usar los números naturales en su trabajo, deben especificar de qué manera los están usando, porque no hay acuerdo en esto tampoco.

Y ni hablar de usar cardinales en metamatemática.
Me parece un disparate total.



Puedo llegar a aceptar parcialmente el trabajo de los lógicos, tal como está, en todo su entero desarrollo, si solamente se le considera como una especie de "teoría relativa" o "virtual".
O sea, estudios de "lógicas" definidas "algebraicamente" dentro de la matemática misma.

En ese contexto, todo tendría validez y sentido, los "modelos" serían conjuntos bien definidos, tendrían un cierto cardinal concreto, los números estarían disponibles, etc.

Pero sería como un universo de "lógicas de juguete".


En línea

Jabato
Visitante
« Respuesta #25 : 01/08/2010, 08:08:38 am »

Ya creo que te voy entendiendo, parece que ves en los razonamientos una pescadilla que se muerde la cola, ó razonamientos circulares, aunque no sé, la lógica no es precisamente mi fuerte, pero yo no vería dificultad en aceptar la lógica matemática como axioma para la construcción de las TC y en consecuencia la construcción de las matemáticas, y despreocuparme absolutamente de todo lo demás. Lo que hagan los lógicos con sus razonamientos sería algo que no debería afectar a la matemática. Digo yo, ya no sé si sé lo que digo ó no lo sé.

Saludos, Jabato. :sonrisa_amplia:
En línea
Alexey
Pleno
****

Karma: +0/-0
Desconectado Desconectado

Sexo: Femenino
España España

Mensajes: 106


Ver Perfil
« Respuesta #26 : 01/08/2010, 10:48:57 am »

Yo creo que lo unico que hay que hacer para filosofar sobre matematicas es intentar entender a Wittgenstein http://es.wikipedia.org/wiki/Ludwig_Wittgenstein el genio de la logica y el lenguaje de cuya obra pocos pueden considerarse entendedores. El libro que recomiendo es su Tractatus Logico-Philosophicus [texx]http://es.wikipedia.org/wiki/Tractatus_logico-philosophicus[/texx] que podeis leer aqui: [texx]http://es.wikisource.org/wiki/Tractatus_Logico-Philosophicus[/texx]

No puedo decir nada mas.
En línea
argentinator
Consultar la FIRMAPEDIA __________________________________________________________________________________________________________________
Administrador
Pleno*
*****

Karma: +0/-0
Desconectado Desconectado

Sexo: Masculino
Argentina Argentina

Mensajes: 7.282

Vean mis posts activos en mi página personal


Ver Perfil WWW
« Respuesta #27 : 01/08/2010, 01:32:09 pm »

Ya creo que te voy entendiendo, parece que ves en los razonamientos una pescadilla que se muerde la cola

Eso mismo.

Cita
yo no vería dificultad en aceptar la lógica matemática como axioma para la construcción de las TC y en consecuencia la construcción de las matemáticas, y despreocuparme absolutamente de todo lo demás.

Claro, podría ser, pero vuelvo a decir que el problema no es "la" lógica, sino "las" lógicas.
Hay muchas lógicas posibles, y no veo motivo o "razón" para elegir una sobre la otra.

Los lógicos mismos en sus "metarazonamientos" usan un cierto tipo de lógica, sin preocuparse de por qué usan esa en vez de alguna otra.  Usan la lógica de Russell
Usan la lógica que usamos todos, pero personajes como Poincaré o Brouwer no aceptarían esos razonamientos de los lógicos actuales, porque aunque no lo digan, "hacen" deducciones a lo Russell.

Ahora digo yo, ¿a quién le debo creer, a Russell o a Brouwer? ¿A quién de los dos hay que tener en cuenta en el mundo de los lógicos?

Cita
Lo que hagan los lógicos con sus razonamientos sería algo que no debería afectar a la matemática.

En realidad afecta.
No es lo mismo la matemática con Axioma de Elección que "sin" tal Axioma.
La matemática con lógica de Russell (la nuestra) no es la misma que con lógica intuicionista.
La "prueba" de que la hipótesis del continuo "no se puede demostrar" es un "resultado" de la lógica (en teoría de modelos), que a mí me resulta dudoso (más allá de que es difícil).

Y al parecer, la lógica actualmente aceptada no alcanza para expresar adecuadamente ciertas ramas de la matemática (creo que se refiere esto a geometría algebraica, o algo por el estilo, pero ya me olvidé).

Cita
Digo yo, ya no sé si sé lo que digo ó no lo sé.

Es confuso. Mas mi opinión es que posiblemente muy pocos lógicos han meditado estas críticas en particular. Razonan a lo Russell, escriben a lo Hilbert, y le dan para adelante.

En la "teoría de modelos" de la lógica moderna se sabe, o se dice, que el lenguaje de la lógica de primer orden tiene el suficiente "poder expresivo" para desarrollar justamente la "teoría de modelos".
O sea que, en realidad, sí que se ha meditado un poco este tipo de cosas.

Pero simplemente se las "usa" sin la suficiente crítica. O al menos, eso es lo que veo yo.
A lo mejor me he perdido de algo, ya que no he leído todo, y hay mucho material desparramado.

En línea

argentinator
Consultar la FIRMAPEDIA __________________________________________________________________________________________________________________
Administrador
Pleno*
*****

Karma: +0/-0
Desconectado Desconectado

Sexo: Masculino
Argentina Argentina

Mensajes: 7.282

Vean mis posts activos en mi página personal


Ver Perfil WWW
« Respuesta #28 : 01/08/2010, 01:32:52 pm »

Yo creo que lo unico que hay que hacer para filosofar sobre matematicas es intentar entender a Wittgenstein http://es.wikipedia.org/wiki/Ludwig_Wittgenstein el genio de la logica y el lenguaje de cuya obra pocos pueden considerarse entendedores. El libro que recomiendo es su Tractatus Logico-Philosophicus [texx]http://es.wikipedia.org/wiki/Tractatus_logico-philosophicus[/texx] que podeis leer aqui: [texx]http://es.wikisource.org/wiki/Tractatus_Logico-Philosophicus[/texx]

No puedo decir nada mas.

Esta tarde lo leo... A ver si es de verdad la "medicina" que me calme, jeje
En línea

Jabato
Visitante
« Respuesta #29 : 01/08/2010, 01:42:05 pm »

Le has echado un vistazo, échaselo antes de abordar seriamente su lectura. Si es lo que yo creo te va a producir una comezón existencial que hasta te va a salir un sarpullido.

No estoy muy seguro de lo que voy a decir porque la filosofía no es lo mio, pero a la vista de las cosas que se ven y que se leen yo diría que en ese mundo existe mucha gente perdida, desorientada, no todos claro está, pero ... no sé, no acabo de ver claras las razones del pensamiento filosófico y que es lo que buscan los filósofos de hoy, por supuesto siempre a la vista de lo que se ve. A lo mejor es que aún sé todavía menos de lo que yo creo que sé, que es bastante poco, también podría ser, pero ... cuando algo no lo entiendo la primera vez que lo leo, lo vuelvo a leer con más atención, si sigo sin entenderlo entonces hago un esfuerzo aún mayor y si a pesar de eso sigo sin entenderlo lo dejo estar por inutil. Vano esfuerzo el mío y el de quien escribió el texto.

Saludos, Jabato. :sonrisa_amplia:
En línea
argentinator
Consultar la FIRMAPEDIA __________________________________________________________________________________________________________________
Administrador
Pleno*
*****

Karma: +0/-0
Desconectado Desconectado

Sexo: Masculino
Argentina Argentina

Mensajes: 7.282

Vean mis posts activos en mi página personal


Ver Perfil WWW
« Respuesta #30 : 01/08/2010, 02:11:05 pm »

Le has echado un vistazo, échaselo antes de abordar seriamente su lectura.

¿No le tenés fe? Jaja.

Es terreno dudoso, sin duda.

Sin embargo tiene una "Introducción" de Bertrand Russell, diciendo que es un tratado importante en la historia de la lógica.
Es del año 1922, así que supongo que tiene en cuenta las grandes controversias que hubo en los años anteriores a esa época.
Sin embargo, seguro no tiene en cuenta el Teorema de Godel que es del año 1930, y mucho menos los avances posteriores de Tarski y otros, los cuales constan en el libro de Rybakov que he nombrado.

Me gustaría algo más actualizado, pero parece un libro que hay que leer.
También tendría que leer cosas de Russell.
No soy muy ordenado, jeje, voy según lo que me va apareciendo en el camino.

Cita
no acabo de ver claras las razones del pensamiento filisófico y que es lo que buscan los filósofos de hoy, por supuesto siempre a la vista de lo que se ve.

 :indeciso:

Hay de todo en la viña del señor.
Mas hay algunos filósofos aquí en el foro que trabajan con gran seriedad, lo cual me consta.

Cita
A lo mejor es que aún se todavía menos de lo que yo creo que sé, que es bastante poco,

Yo estoy igual.
Pero de a poco se descubren cosas interesantes.

He leído el libro de Georges Ifrah: "A Universal History of Numbers", que enseña mucho a entender la psicología humana acerca de los números naturales, su origen y evolución.
Es un libro de divulgación, pero basado en rigor científico. A mí al menos me inspiró confianza.

Ahí en ese texto descubrí a un tal "Dantzig" con su libro "Number, the language of science", que complementó algunas cosas más, aunque muchas cosas que dice me aburrieron porque ya las sabía, y no contribuyen a entender el fundamento mental o cultural de los números naturales, que son el meollo del problema.

En línea

zonurb1
http://m-cuadrado.blogspot.com/
Pleno*
*****

Karma: +0/-0
Desconectado Desconectado

Sexo: Masculino
Chile Chile

Mensajes: 261



Ver Perfil WWW
« Respuesta #31 : 01/08/2010, 06:30:31 pm »

Lo que me refiero es que  ,no es bueno comprometerse emocionalmente .porque uno no sabe si en su búsqueda va a encontrar mas pruebas que refuten su  propia postura .
Por ejemplo ante un problema matemático ,que aparentemente no tiene solución ,como por ejemplo pi y el circulo ,no puedo estar en forma continua tratando de resolver algo así porque es darse la cabeza contra un muro :BangHead: o terminar con la cabeza saliendo humo :¿eh?: y mas confundido que al comienzo . :indeciso:
Entonces lo que hago es dejar anotadas las ideas mas claras que tango al respecto y comienzo al día siguiente en la mañana cuando este totalmente despejado y desayunado :cara_de_queso: ,dedico una media hora hasta tener una nueva idea clara que me permita seguir trabajando .por ello me párese divertido y relajado.
Mientras tanto uno puede leer sobre el tema , y rumiar la idea en la cabeza o en un debate .
Uno nunca sabe, Newton  el día menos pensado vio caer una manzana y se le presento la idea con claridad ,pero sabemos que estuvo harto tiempo tratando de concretar esa idea (gravedad universal).
Me parece muy importante tratar de unificar las  diferentes posturas que se tienen frente a la lógica pero creo yo que hay que tener una idea clara que sirva de apoyo para poder comenzar.
También creo de acuerdo a lo poco que he leído ,de Aristóteles,Kant ,Hegel ,Descartes ,Hume etc ..Siguen siendo los referentes cuando de lógica se trata y los filosofos y lógicos posteriores  no hacen nada nuevo solo seguir las diferentes corrientes que surgen de ellos algunos llegan a ser exotéricos ,(a Kant seguro le daria un ataque alguna de estas posturas postkantianas ),la verdad es que ninguna de sus definiciones hechas por estos grandes filósofos me gusta del todo.
En línea

Alexey
Pleno
****

Karma: +0/-0
Desconectado Desconectado

Sexo: Femenino
España España

Mensajes: 106


Ver Perfil
« Respuesta #32 : 01/08/2010, 06:50:29 pm »

Hola de nuevo. Veo que eres una persona con muchos intereses. Estoy con Jabato en lo de que la filosofia no me gusta mucho porque a veces se meten en terrenos que la ciencia aborda, como las cuestiones de si el universo es finito o infinito (ejemplo banal), pero sin ningun fundamento ni metodo entonces elucubran mucho y no dicen nada al final. Pero esa es la diferencia entre la filosofia y la ciencia, que esta ultima es mucho mas refinada y tiene un metodo implacable de raciocinio. Yo considero que he estudiado bastantes libros de filosofia porque tampoco lo entendia al principio y me di cuenta de que hay que entender el ambiente historico y como pensaria uno en su situacion. Wittgestein era un aristocrata austriaco marxista que aborrecia el ascenso de Hitler y que tenia problemas muy doloroso en la familia (como que lo habian reprimido y convertido en un ser timido y poco sociable). en este mar de angustia busco algo para fijar lo que le rodeaba (algo parecido a lo que hizo descartes que tras una vida de humillacion, donde la mitad de las mujeres de su familia habian sido quemadas por brujas y la locura reinaba en las callas, decidio establecer una pauta perfecta y armoniosa para sentar las bases del mundo y asi coloco dos ejes sobre todo lo que veia y descubrio como todas las formas, texturas y variaciones de colores o luminosidad que vemos a nuestro alrededor se pueden expresar con ecuaciones matematicas y se puede escribir todo el universo de manera ordenada y humana a traves de una escritura nueva que es la que da inicio a la geometria analitica) y lo encontro en las entrañas de la matematica, buscando el principio del que emanaban todas las leyes del universo y ese campo fundamental de las matematicas es la logica. En realidad wittgestein no es un filosofo ni descartes ni galileo ni newton ni freud aunque se suelen estudiar en los libros de filosofia porque lo que les permitio investigar cientificamente es fruto de su momento historico y su pensamiento filosofico. Ellos son todos cientificos y Wittgestein era un matematico que a partir de lo que descubrio se dispuso a escribir una serie de frases que expresarian su idea sobre la logica y el sentido que tienen los planteaminetos umanos. La pena es que en su convulsa vida (dicen que era un homosexual reprimido) quemo todo su recorrido mental que habia escrito ya y cuando se arrepentio se dispuso a escribir una breve compilacion de sus ideas sin explicar como llego a ellas. por eso en el prefacio del Tractatus Logico-Philosophicus dice
Cita
Quizá este libro sea sólo entendido por alguien a quien ya se le han ocurrido los pensamientos que se expresan en él - o al menos pensamientos similares. - Por tanto, no es un libro de texto. - Su propósito se habría logrado si hiciera disfrutar a una persona que lo leyera y lo entendiera. El libro se ocupa de problemas de filosofía y muestra, creo yo, que la razón por la que estos problemas se pueden proponer es porque la lógica de nuestro lenguaje está mal entendida.
Es una recopilacion de notas sueltas. Por lo que es dificil de leer. Yo he logrado entender algunos conceptos despues de haber leido mucho sobre logica proposicional y sobre teoria de conjuntos pero es muy complicado su pensamiento y por eso te recomiendo que leas sobre todo lo que han escrito otros sobre el porque empezar directamente leyendolo es contraproducente.

En serio, este filosofo (mejor dicho, logico) era un genio. No creais que yo lanzo lecturas al azar y que es un tio que tiene una secta de subditos que lo consideran un genio incomprendiado. Lo he propuesto porque esta considerado uno de los mayores filosofos de todos los tiempos y la mayoria lo pone a la altura de Kant, Hegel o Marcuse. De verdad que no es ningun charlatan que se cree superior como algunos filosofos que he leido (ejeem Nitsche ejeem). De verdad, cojete algun libro bueno de filosofia (desgraciadamente en español no hay, los italianos son los mejores) y hazte el recorrido historico de los filosofos desde galileo (el problema en españa es que hacen una papilla de conceptos desordenados sin imponer una vision historicista autor por autor). Se que es un coñazo pero sin se hace asi la filosofia es una mierda. Cuando llegues al wittgenstein te resultara mucho mas facil entender su pensamiento. Y lo vuelvo a repetir: si puedes, leete otros pensadores de su epoca que hablen de la logica o incluso que hablen sobre el.

Se que es mucho trabajo pero si lo logras (yo no lo hice tan correctamente) estoy seguro de que lo entenderas bien y tus dudas sobre la realidad profunda de la logica se transformaran en exitacion por lo nuevo aprendido. Yo la verdad no lo he entendido en casi nada pero lo que he pillado (gracias tambien a otros filosofos) me resulta cautivador y se que te gustara. Se que es anterior a godel pero lo que importa no es sobre su forma te entender el calculo logico sino de entender cuales son los efectos en el mundo real.

Lo siento, pero es que me explico muy mal y tengo que escribir mucho para que se entienda algo.
Que te sea leve. :sonrisa_amplia:


__________________________________________________________________________

Actualizacion:

Cita
a Kant seguro le daria un ataque alguna de estas posturas postkantianas
:cara_de_queso: no te quepa la menor duda.

Por cierto argentinator, acabo de recordar que un articulo que me ayudo bastante a entender la logica proposicional en el sentido mas filosofico fue este (http://www.mat.puc.cl/~rlewin/apuntes/logica_soc.pdf)

P.D. no puedo escribir tildes con el teclado, no me juzgueis.   :avergonzado:
En línea
argentinator
Consultar la FIRMAPEDIA __________________________________________________________________________________________________________________
Administrador
Pleno*
*****

Karma: +0/-0
Desconectado Desconectado

Sexo: Masculino
Argentina Argentina

Mensajes: 7.282

Vean mis posts activos en mi página personal


Ver Perfil WWW
« Respuesta #33 : 01/08/2010, 07:13:11 pm »

Me interesan muchas cosas, es cierto, pero principalmente estoy preocupado intensamente por llegar a un fundamento sólido de la matemática.

La cosa es simple: todo el mundo confía en que la matemática es sólida.
Los matemáticos confían en la lógica porque es sólida.
¿Y los lógicos? Van por caminos extraños, con bases dudosas, o que no me convencen.

Así que, ése es el problema. Busco un "esquema" que me permita estar seguro de la matemática misma, hasta cierto punto, sin incertidumbres, ni brumas, ni métodos "sacados de la galera".

Has nombrado muchos filósofos de la lógica, pero a mí me gustan más los "modernos": Russell, Hilbert, Kronecker, Poincaré, Brouwer, Godel, Tarski, Turing, entre otros.

Al Wittgenstein nunca lo había oído nombrar, y sólo confío en él porque Russell habla muy bien de su Tractatus.

En cuanto al contexto histórico y personal de cada persona... la verdad es que no me parece demasiado relevante.
A todos nos pasan cosas en la vida, pero los descubrimientos matemáticos se vuelven independientes de las cuestiones emocionales. Pasan a nutrir a la humanidad.

Muchas cosas afectan a cómo estructuramos el conocimiento y la ciencia.
Y si uno se mete de cabeza, termina leyendo un montón de cosas que se alejan de lo que a uno realmente le interesa.
Soy conciente de que todo en definitiva influencia sobre todo lo demás, y se hace difícil desenredar la maraña de las cosas.
Pero ponerme a leer todo eso que me has dicho... No lo creo.

Fijate que la vida es corta, el tiempo disponible es breve, y uno tiene que "seleccionar" qué va a leer y qué no. Esto de Wittgenstein parece interesante, y lo estoy leyendo ahora.

Puedo leer a Russell, a Hilbert y otros, pero no a todos.
Cada vez que he tenido ocasión de toparme con alguna frase de Kant, me ha parecido un imbécil.
Aún así, mucha gente lo respeta, y no puedo andar ladrando gratuitamente por ahí.

Ni hablar de Nietzche, que lo considero un payaso o un loco. A ése sí que no me lo van a "enchufar".

No obstante, sí que leeré y estudiaré lo que vaya surgiendo en el camino.

De todos modos, si uno no encuentra satisfacción a sus dudas en los libros o en los especialistas, el único camino que queda es resolver el problema uno mismo.
Sin embargo, antes de lanzarme a pretender dar un fundamento sólido para la matemática, tengo que salir de la ingenuidad, y estar más informado, enterarme qué dice cada uno, qué hace cada quién, reflexionar, y algún día, si hay suerte, invento algo.

Mi interés principal es la matemática, y por extensión, las cuestiones que están directamente relacionadas con ella: lógica, física, informática, epistemología de la matemática.

Me interesan otras cosas... pero no mucho.
En línea

argentinator
Consultar la FIRMAPEDIA __________________________________________________________________________________________________________________
Administrador
Pleno*
*****

Karma: +0/-0
Desconectado Desconectado

Sexo: Masculino
Argentina Argentina

Mensajes: 7.282

Vean mis posts activos en mi página personal


Ver Perfil WWW
« Respuesta #34 : 01/08/2010, 07:17:51 pm »

Lo que me refiero es que  ,no es bueno comprometerse emocionalmente .porque uno no sabe si en su búsqueda va a encontrar mas pruebas que refuten su  propia postura .

Te agradezco la preocupación, pero ya tengo madurez para ocuparme de mis propias emociones, jeje  :lengua_afuera:

Uno tiene que ocuparse de aquello que le interesa, así que la "emoción" es la guía.

No importa mucho si lo que encuentro es contrario a lo que me imagino.
Lo que me frustra es no tener claras las cosas, y no que sean o no como a mí me gustan.

Aprender implica que uno tenga que cambiar su punto de vista algunas veces.
En línea

Ser Humano
Semi pleno
***

Karma: +0/-0
Desconectado Desconectado

Sexo: Masculino
Argentina Argentina

Mensajes: 61

intentando comprender


Ver Perfil
« Respuesta #35 : 01/08/2010, 08:17:36 pm »

Hola otra vez.
Perdón por tardar tanto en responder, no funciono si hay excesiva radiación solar presente :cara_de_queso: .

Cita
Ahora bien, ese Teorema sigue siendo lógicamente válido aún si yo cambio esos símbolos que figuran ahí por otros, con tal de que la estructura lógica sea la misma.
Y eso es así porque las leyes de inferencia lógica son "meramente formales", o sea, se ocupan sólo de la forma de las expresiones, y no de su "contenido".
Si se cambian los símbolos implementados, pero permanecen las nociones a las que se hace referencia, la conclusión será la misma. Si permanecen los mismos símbolos pero éstos hacen referencia a nociones diferentes, entonces no necesariamente la conclusión es la misma. Me parece que no nos estamos entendiendo, y que nos estamos refiriendo a cosas diferentes :triste: . Voy a poner un ejemplo por las dudas; si el/los simbolo/s [texx](\#A < \infty)[/texx] representa/n una determinada proposición y [texx]{\forall{B\subset A}(\# B< \infty)}[/texx] representa la negación de esa proposición, entonces no se puede concluir dicha implicación (o al menos es lo que noto ahora). Por eso es que decía que lo importante no es la simbología en sí, sino a que hace referencia ésta.

Cita
La lógica no se preocupa de si se hace referencia a "algo" externo, o con sentido para intuitivo para alguien.
Es mero cálculo, que transforma unas hileras de caracteres en otras. Eso es en definitiva una "demostración", y es algo que una computadora puede hacer, porque se trata de una actividad sistemática, sintáctica, sin significado.
No necesariamente ese "algo" debe ser "externo", basta con que ese algo tenga cualidades distintivas (tal vez imaginarias).
En las computadoras se programa el algoritmo, un algoritmo que se puede demostrar que es válido (lógicamente) como procedimiento para llegar a conclusiones a partir de nociones previas. El punto está que para formular el algoritmo se tienen en cuenta a que hace referencia con cada símbolo que puede ser introducido en el programa que lo ejecutará.

Cita
Hay unas expresiones que se forman mediante ciertas reglas sintácticas: algunas expresiones tienen sentido lógico y otras se tiran a la basura (algo como   [ \forall{\in{\in{\exists{\supset{xx\emptyset}}}}}]  no tiene sentido lógico, son signos puestos al azar).
Sí, totalmente; en un mensaje anterior había mencionado algo semejante, pero me parece que lo hice de forma poco clara. Era cuando me refería a que cierto conjunto de símbolos (que a su vez son un símbolo) o hacen referencia a una noción, o son inutiles.

Cita
A este nivel de cosas, no existen valores de verdad de esas proposiciones.
Pero ¿no son los axiomas premisas que se consideran ciertas a priori?

Cita
Pero aún así, que sean verdaderas o falsas esas proposiciones, no necesita hacer referencia a noción alguna.
Pero como se establece la verosimilitud de la proposición si no hace referencia a ninguna noción? (será que nos estamos refiriendo a diferentes cosas con el término "noción"?); Por ejemplo ¿se puede decir si **^¨_Ç es verdadera o falsa?

Cita
No es lo mismo la definición de "infinito" con una fórmula, que la intuición de infinito.
Pero entonces se está haciendo referencia a diferentes cosas con la misma palabra, y alli reside (al menos uno) de los problemas. Es decir, uno puede interpretar la formula, notar a que se refiere y compararla con la "noción intuitiva" de infinito; si no coinciden, entonces son nociones diferentes, y si son nociones diferentes poco útil es que se las llame de igual forma. Es decir, me parece que se puede trabajar con la formula porque no se está haciendo referencia a esa noción poco definida, sino que se está haciendo referencia a otra, que sí está bien clara.

Cita
No entiendo qué quisiste decir con "no-nociones".
Simbología que no hace referencia a algo; por ejemplo averiguar el valor de verdad de [texx](P(x)\longrightarrow Q(x)) \longrightarrow ||||[/texx]

Cita
Bueno, los entes perceptibles no los percibimos con precisión, y de lo poco que percibimos de ellos, descartamos muchas propiedades o cualidades complejas, y nos quedamos con algunas simples.
Luego las "representamos" matemáticamente, pero eso no es lo mismo que decir que "coinciden".
No me refiero para nada a ningún ente ontologico, sino que puramente lo que percibimos y llamamos entes. Por ejemplo, los colores y los sonidos se pueden trabajar con teoría de conjuntos, siendo que la generalización tratada en dicha teoría incluye a los casos de éstos.

Cita
Un tipico modelo de crecimiento de poblaciones es [P(t) = ce^{at}] , siendo a, c, unas constantes.
La población de un país dado podría modelarse con esa fórmula.
Pero supongamos que a = c = 1, para simplificar. En la mayoría de los instantes t, la población P(t) sería un número fraccionario. Por ejemplo, P(t) = 2.71.... si t = 1.
¿Acaso hay 2.71 personas tras t = 1 año?
No puede haber una cantidad fraccionaria de personas.
Claro, no. Alli el problema sería el decir que dicha situación es un caso paticular de la función tratada (la cual generaliza a muchas situaciones); debería decirse que la situación es semejante a uno de los casos particulares de la generalización tratada en la función, o lo que es lo mismo, a la función en sí.

Cita
En cuanto a los patrones que un ser humano puede distinguir quizá sean sólo los que "prefiere" distinguir.
Me refiero a que puede haber autolimitaciones psicológicas y culturales que orienten al ser humano a ver unos patrones y no otros.
Más aún si se trata de costumbres, o cosas enseñadas o inculcadas.
Probablemente, pero no dudo que si uno se lo propone, pueda saltear esas limitaciones.

Cita
Lo de la "relevancia" que has mencionado no tiene discusión.
Cada aplicación con su teoría...
Me refería a que si necesitamos resolver un problema de índole empirico, recurrimos a la lógica clásica, y no a otra, pues ella es la que nos da resultados "verificables" y útiles (si lo que queremos es resolver el problema).

Cita
Claro, eso es lo que hacen, y eso es lo que no logro aceptar.
:¿eh?: realmente desconcertante.

Cita
Pero ahora yo me pregunto, ya que estamos razonando con la lógica PL (sin permiso de nadie) ¿pòr qué no usamos mejor IL?
¿O por qué no usamos incluso cualquier otra lógica mientras demostramos teoremas acerca de la lógica misma?
Eso sí es puro razonamiento inductivo; cuando queremos resolver un problema, como mencionaba antes, claramente recurrimos a la lógica clasica, y como por lo general nos da resultados "correctos", es decir, verificables de alguna otra forma (además del mismo razonamiento), inducimos que cada vez que tenemos un problema, si aplicamos la lógica clasica de forma efectiva, lo vamos a resolver. Claramente, no tendría por que ser así.
Pero acá de lo que se estaría dudando es de las nociones que se tienen en cuenta en un principio, y como "notar" si son ciertas o no. Es decir, que se están poniendo en duda los axiomas, y eso es un problema en el sentido que al ser axiomas no cabe la posibilidad de una demostración, a menos que la misma sea realizada a partir de otras reglas arbitrarias, es decir, más axiomas  :enojado: .

Cita
Ahora bien, se habla de cardinales como si fueran algo establecido en forma única, sin duda alguna ni ambigüedad.

Pero eso no puede tomarse a la ligera, porque se sabe que hay teorías de conjuntos en los que hay más cardinales o menos que en otras.
Así que la noción de "cardinal" no es clara, es ambigua.
Esto escapa totalmente a mis nociones, pero algo a tener en cuenta (en cualquier tema) es que si son nociones diferentes, poco importa si las llaman iguales, porque se están refiriendo a diferentes cosas; Si yo dentro de mi casa le digo a los "perros", "arboles", y fuera de mi casa le digo "perros", entonces tengo que tener en cuenta (y cualquiera que me escucha) que cuando me meto en mi casa estoy haciendo referencia a algo diferente con la misma palabra, con el mismo símbolo. Pero claro, siempre es preferible que no se llegue a una situación como esa, que solo presta a confusiones.

Cita
¿Cómo se los usa impunemente en etapas constructivas de la matemática, si encierran dilemas estructurales y teóricos que no son triviales en lo absoluto?
Creéme cuando digo que comprendo claramente lo inconcebible que probablemente te resulten, como a mi me resultan, que se hagan las cosas de esa forma.

Saludos :guiño:
En línea
argentinator
Consultar la FIRMAPEDIA __________________________________________________________________________________________________________________
Administrador
Pleno*
*****

Karma: +0/-0
Desconectado Desconectado

Sexo: Masculino
Argentina Argentina

Mensajes: 7.282

Vean mis posts activos en mi página personal


Ver Perfil WWW
« Respuesta #36 : 01/08/2010, 10:25:00 pm »

Cita
Ahora bien, ese Teorema sigue siendo lógicamente válido aún si yo cambio esos símbolos que figuran ahí por otros, con tal de que la estructura lógica sea la misma.
Y eso es así porque las leyes de inferencia lógica son "meramente formales", o sea, se ocupan sólo de la forma de las expresiones, y no de su "contenido".
Si se cambian los símbolos implementados, pero permanecen las nociones a las que se hace referencia, la conclusión será la misma. Si permanecen los mismos símbolos pero éstos hacen referencia a nociones diferentes, entonces no necesariamente la conclusión es la misma. Me parece que no nos estamos entendiendo, y que nos estamos refiriendo a cosas diferentes :triste: .

Suponte que escribo [texx]a= b[/texx] seguido de [texx]b=c[/texx].
¿Concluirías que [texx]a=c[/texx]?
Seguro que sí, aunque poco importa qué signifiquen las letras a, b, c.

Se trata de reglas formales. Así como la aritmética o el álgebra tienen axiomas, también los tienen la teoría de conjuntos y la lógica misma.

Hay axiomas de la lógica para "implicaciones" y para "igualdades". Por ejemplo:

[texx](x=y)\Rightarrow{(y=x)}[/texx]

Eso es un Axioma lógico, y no importa si alguien les da significado o no.

Una computadora no tiene que preocuparse de si x, y tienen sentido, ni siquiera de que = sea un signo de igualdad.
Hace las inferencias y listo. El significado se pierde, y a nivel de máquina es sólo una cuestión de "transformar una lista de caracteres en otra".

Cita
Cita
La lógica no se preocupa de si se hace referencia a "algo" externo, o con sentido para intuitivo para alguien.
 punto está que para formular el algoritmo se tienen en cuenta a que hace referencia con cada símbolo que puede ser introducido en el programa que lo ejecutará.

El "sentido" del símbolo introducido a la computadora solamente lo entiende un ser humano, el que la programó, pero una vez que has metido los caracteres en la máquina, la máquina no entiende nada, y a ella sólo le concierne con qué reglas debe transformar una cadena de caracteres en otra.


Cita
Cita
A este nivel de cosas, no existen valores de verdad de esas proposiciones.
Pero ¿no son los axiomas premisas que se consideran ciertas a priori?

No.

Justamente en la lógica hay una gran diferencia entre una proposición "demostrada" y una "verdadera".

Tomemos el caso de la regla de transformación "Modus Ponens", que dice:

Si [texx]p \wedge(p\Rightarrow{ q})[/texx] entonces [texx]q[/texx].

Esto quiere decir que la "computadora" busca en la cadena de caracteres una estructura compatible con la expresión [texx]p \wedge(p\Rightarrow{ q})[/texx], se fija qué trozo de la cadena corresponde a "p", y cuál corresponde a "q".
Una vez que lo logra, "transforma" la cadena anterior en el trozo "q".

Si p fuera [texx]x^2+1=0[/texx] y q fuera [texx]x=i[/texx], entonces la máquina transformaría cada aparición de la cadena [texx](x^2+1=0) \wedge((x^2+1=0) \Rightarrow{(x=i)})[/texx] en la cadena [texx](x=i)[/texx].

Poco importa de dónde viene todo eso.

Si la máquina "reconoce" como p a algo como !/|a462, y como q a algo como SGDT!?, entonces la máquina obedientemente transforma la cadena [texx]!/|a462 \wedge(!/|a462\Rightarrow{ SGDT!?})[/texx] en [texx]SGDT!?[/texx].

Claro que antes de que eso pase, los lógicos se asegurarán de que ese tipo de "sentencias" no pertenezcan al lenguaje formal.
Pero quiero dejar claro de qué se trata una "demostración".

Una demostración es una "operación" tal que, dada una cadena de caracteres, da como resultado otra.

Nada se dice de si es cierta o no.

Ahora bien, a una cadena de caracteres se le puede transformar en alguna otra cosa, tal como una "función" lo haría, por ejemplo, en un valor de verdad, V o F (verdadero o falso).

La definición de "verdad" se hace un poco independientemente, siguiendo otras reglas.

Claro que para que todo encaje se procura que las proposiciones "demostradas" sean también "verdaderas".

Sin embargo, Godel mostró como una proposición verdadera puede que no sea "demostrable".
Una conclusión así sólo es posible si hay una clara diferencia entre el procedimiento de "demostrar" y el hecho de "ser verdadero".



Cita
Cita
Pero aún así, que sean verdaderas o falsas esas proposiciones, no necesita hacer referencia a noción alguna.
Pero como se establece la verosimilitud de la proposición si no hace referencia a ninguna noción? (será que nos estamos refiriendo a diferentes cosas con el término "noción"?); Por ejemplo ¿se puede decir si **^¨_Ç es verdadera o falsa?

Sí y no.
Se puede decir que es verdadera o falsa "después" de haber definido cuáles cadenas de caracteres las consideraremos verdaderas y cuáles falsas.

Que esto tenga sentido común o no, no interesa, uno lo puede hacer, con la misma arbitrariedad con que dictamine que una función sobre un conjunto dado vale tal o cual valor en cada x.
Aquí, la función tiene como "dominio" a ciertas cadenas de caracteres, y como imagen, los valores en un conjunto de dos elementos {V, F}.

Cita
Cita
No es lo mismo la definición de "infinito" con una fórmula, que la intuición de infinito.

Pero entonces se está haciendo referencia a diferentes cosas con la misma palabra, y alli reside (al menos uno) de los problemas. Es decir, uno puede interpretar la formula, notar a que se refiere y compararla con la "noción intuitiva" de infinito; si no coinciden, entonces son nociones diferentes, y si son nociones diferentes poco útil es que se las llame de igual forma. Es decir, me parece que se puede trabajar con la formula porque no se está haciendo referencia a esa noción poco definida, sino que se está haciendo referencia a otra, que sí está bien clara.

Sí, está bien, pero eso no quita el hecho de que uno nunca puede trabajar realmente con la "noción intuitiva" de infinito, porque justamente es intuitiva, y por lo tanto carece de objetividad.
Lo único objetivo son los "símbolos escritos en un papel", de los cuales todo el mundo puede opinar objetivamente.



Cita
Cita
Pero ahora yo me pregunto, ya que estamos razonando con la lógica PL (sin permiso de nadie) ¿pòr qué no usamos mejor IL?
¿O por qué no usamos incluso cualquier otra lógica mientras demostramos teoremas acerca de la lógica misma?
Eso sí es puro razonamiento inductivo; cuando queremos resolver un problema, como mencionaba antes, claramente recurrimos a la lógica clasica, y como por lo general nos da resultados "correctos", es decir, verificables de alguna otra forma (además del mismo razonamiento), inducimos que cada vez que tenemos un problema, si aplicamos la lógica clasica de forma efectiva, lo vamos a resolver. Claramente, no tendría por que ser así.
Pero acá de lo que se estaría dudando es de las nociones que se tienen en cuenta en un principio, y como "notar" si son ciertas o no. Es decir, que se están poniendo en duda los axiomas, y eso es un problema en el sentido que al ser axiomas no cabe la posibilidad de una demostración, a menos que la misma sea realizada a partir de otras reglas arbitrarias, es decir, más axiomas  :enojado: .

Bueno, yo veo las cosas de un modo similar o quizá igual: la lógica clásica proviene de un razonamiento inductivo, tal como vos decís: "Ya que funcionó hasta ahora, seguimos confiando en ella".
Pero ya sabemos que lo "inductivo" tiene sus fallas, con tal que un solo ejemplo viole la regla que los casos precedentes satisfacían.

No hay motivos empíricos para aceptar la lógica clásica en toda su generalidad.
Así como las propiedades de los conjuntos finitos no se extienden a los infinitos, también puede ocurrir que la lógica clásica, que ha funcionado en muchas situaciones, no necesariamente puede funcionar en todas las situaciones concebibles.

Hay quienes dicen que sí funciona siempre. Lo estoy analizando, pero por ahora sigo opinando que no, que la lógica clásica es tan falible como cualquier otra cosa, aunque reconozco su poder de resistencia a la falibilidad.

En cuanto a los axiomas, son elecciones de cada teoría.
El caso es que en la lógica misma se toman axiomas, y como resultado surgen muchas lógicas distintas, así como cambiando los axiomas de la geometría surgen muchas geometrías distintas.

En cada contexto una lógica será mejor que otra, según la "aplicación", pero en el caso de los fundamentos mismos de la lógica, ¿por qué usar aún la lógica clásica y no otra?

Cita
Cita
Ahora bien, se habla de cardinales como si fueran algo establecido en forma única, sin duda alguna ni ambigüedad.

Pero eso no puede tomarse a la ligera, porque se sabe que hay teorías de conjuntos en los que hay más cardinales o menos que en otras.
Así que la noción de "cardinal" no es clara, es ambigua.
Esto escapa totalmente a mis nociones, pero algo a tener en cuenta (en cualquier tema) es que si son nociones diferentes, poco importa si las llaman iguales, porque se están refiriendo a diferentes cosas; Si yo dentro de mi casa le digo a los "perros", "arboles", y fuera de mi casa le digo "perros", entonces tengo que tener en cuenta (y cualquiera que me escucha) que cuando me meto en mi casa estoy haciendo referencia a algo diferente con la misma palabra, con el mismo símbolo. Pero claro, siempre es preferible que no se llegue a una situación como esa, que solo presta a confusiones.

El problema con los cardinales es de "escalas".
Suponte el caso absurdo de que en una teoría axiomática A los números naturales posibles son sólo 1, 3, 5, etc.
En otra teoría axiomática B los números son 1, 5, 9, 12 y 34.
En otra teoría axiomática C los números son las potencias de 2.

Ahora viene un lógico y hace una teoría que se dedica a "contar" por ejemplo la cantidad de caracteres de una expresión dada.
Y suponte que se le ocurre usar la opción A porque es la que más conoce y le resulta cómoda.
¿Es esto correcto?
¿Se puede usar el concepto de número natural alegremente?
Yo diría que no, porque hay 3 conceptos distintos A, B y C, y nada garantiza que uno sea mejor que otro.

Con los cardinales infinitos pasa algo así, hay "números transfinitos" que en algunas teorías dejan de existir, y en otras teorías o modelos aparecen más de los acostumbrados.
Entonces, ¿por qué hablar de "cardinales" en tales contextos?
No es algo unívocamente determinado, no es aceptable.



Lo que dijiste del empirismo de la lógica clásica me gustó, pues yo también lo he pensado algunas veces, pero yo lo uso para argumentar contra su uso indiscriminado, y no para defenderla.

Como ves, al ponerse a pensar sobre el asunto, van apareciendo algunas coincidencias.

Pero tampoco quiero hacer "escuela", porque no estoy demasiado seguro de nada.
En línea

argentinator
Consultar la FIRMAPEDIA __________________________________________________________________________________________________________________
Administrador
Pleno*
*****

Karma: +0/-0
Desconectado Desconectado

Sexo: Masculino
Argentina Argentina

Mensajes: 7.282

Vean mis posts activos en mi página personal


Ver Perfil WWW
« Respuesta #37 : 01/08/2010, 11:50:57 pm »

Estas cuestiones sobre expresiones vacías de significado... tienen nombres específicos en la teoría de lenguajes formales.

Al manejo y definición de un lenguaje formal y sus símbolos, se le denomina "sintaxis".
A la interpretación de esos símbolos, mediante valores de verdad de algún tipo, o incluso alguna otra interpretanción diferente, se le llama "semántica".

Hay una distinción entre "forma" y "significado".

No te puedo decir que yo esté seguro de lo "bien" que esta manera de trabajar le hace a la matemática, pero el caso es que se hace así.

Sintaxis por un lado y semántica por otro.

Los valores de verdad forman parte del costado "semántico".

En línea

Ser Humano
Semi pleno
***

Karma: +0/-0
Desconectado Desconectado

Sexo: Masculino
Argentina Argentina

Mensajes: 61

intentando comprender


Ver Perfil
« Respuesta #38 : 02/08/2010, 12:39:32 am »

Hola argentinator

Cita
Suponte que escribo [a= b]  seguido de [b=c] .
¿Concluirías que [a=c] ?
Seguro que sí, aunque poco importa qué signifiquen las letras a, b, c.
Si previamente se a que hace referencia el símbolo = , sí, por el hecho de que se que los símbolos que se encuentran a ambos lados son formas equivalentes de mencionar la misma noción. Sin definir a que hace referencia = , podría no llegarse a esa conclusión (por ejemplo si = haría referencia a que se diferencian). En este caso, la nociones que representan [texx]a[/texx] y [texx]b[/texx] son muy generales, y son cumplidas por muchos entes particulares. De hecho, una vez que se sabe a que noción hace referencia el sigo = , es incluso necesario mencionar que los simbolos a y b hacen referencia a otra noción, ya que los símbolos en sí no cumplen que a=b, ni que b=c.

Cita
Una computadora no tiene que preocuparse de si x, y tienen sentido, ni siquiera de que = sea un signo de igualdad.
Hace las inferencias y listo. El significado se pierde, y a nivel de máquina es sólo una cuestión de "transformar una lista de caracteres en otra".
Pero las nociones a las que hacen referencia están implicitas en el algoritmo de resolución, en las nociones que se aceptan de antemano. De no ser así, parecería igual de util asignarle a cada conjunto de caracteres, otro de forma aleatoria.

En la implicación que mencionas, claramente se está haciendo referencia a la propiedad simétrica de la igualdad. No noto que sea un conjunto de caracteres que no hagan referencia a algo, porque noto, justamente, a que hacen referencia.

Cita
El "sentido" del símbolo introducido a la computadora solamente lo entiende un ser humano, el que la programó, pero una vez que has metido los caracteres en la máquina, la máquina no entiende nada, y a ella sólo le concierne con qué reglas debe transformar una cadena de caracteres en otra.
Claro, en ningún momento afirmo ello. Y si lo hice, fue un error  :cara_de_queso: . Lo que sí digo es que para formular el algoritmo de resolución se tiene que tener en cuenta "a que hace referencia" cada símbolo, es decir, tener en cuenta cuales son las nociones que se manejan, más allá del símbolo que se implemente.

Cita
Si la máquina "reconoce" como p a algo como !/|a462, y como q a algo como SGDT!?, entonces la máquina obedientemente transforma la cadena [!/|a462 \wedge(!/|a462\Rightarrow{ SGDT!?})] en [SGDT!?] .
Claro que antes de que eso pase, los lógicos se asegurarán de que ese tipo de "sentencias" no pertenezcan al lenguaje formal.
Pero quiero dejar claro de qué se trata una "demostración".

Una demostración es una "operación" tal que, dada una cadena de caracteres, da como resultado otra.

Nada se dice de si es cierta o no.

Ahora bien, a una cadena de caracteres se le puede transformar en alguna otra cosa, tal como una "función" lo haría, por ejemplo, en un valor de verdad, V o F (verdadero o falso).
Como a ésta altura se notará, no me refería a ello al mencionar "demostración".
En el ejemplo que me das, al no definir, o decir a que hacen referencia cada uno de los símbolos, se está en el mismo caso inicial, en donde p y q podían ser cualquier cosa mencionada de esa manera (y en este caso esos símbolos son aquello a lo que haga referencia).

¿La verdad la conclusión no está asegurada por la verdad de las premisas? (en un razonamiento axiomaticamente válido como el que tratamos).

Cita
Sin embargo, Godel mostró como una proposición verdadera puede que no sea "demostrable".
Una conclusión así sólo es posible si hay una clara diferencia entre el procedimiento de "demostrar" y el hecho de "ser verdadero".
Seguramente que hay diferencias, de hecho yo noto a la demostración como un procedimiento, no como una cualidad. Pero si bien no son lo mismo, puede que exista una implicación entre ellos.
¿Pero como se "sabe" que esa proposición es verdadera si no se puede demostrar que lo es?

Cita
Aquí, la función tiene como "dominio" a ciertas cadenas de caracteres, y como imagen, los valores en un conjunto de dos elementos {V, F}.
Cuando uno menciona que una proposición es verdadera, no esta simplemente mencionando que es TRWEAS (o cualquier cosa), sino que esta haciendo referencia al preconcepto de la palabra.

Pero hay mucha razón en dudar de el valor de "verdad" de los axiomas de los que parte la lógica clasica, es decir, preguntarse por que no se puede establecer valores de verdad de forma aleatoria a otras proposiciones.

Cita
Sí, está bien, pero eso no quita el hecho de que uno nunca puede trabajar realmente con la "noción intuitiva" de infinito, porque justamente es intuitiva, y por lo tanto carece de objetividad.
Si, de eso no cabe duda (o tal vez pocas no más  :sonrisa_amplia:), pero es importante tener en cuenta que lo que se menciona como infinito, no es ese infinito, sino que otra cosa que se define de la manera expuesta.

Cita
Hay quienes dicen que sí funciona siempre. Lo estoy analizando, pero por ahora sigo opinando que no, que la lógica clásica es tan falible como cualquier otra cosa, aunque reconozco su poder de resistencia a la falibilidad.
Desde ya que no sé si es infalible, lo mio es una total incertidumbre al respecto. Hasta donde conozco, aun no hay respuesta definitiva sobre ello. Cualquier cosa que puedas averiguar sería magnifico que lo pongas en el hilo :guiño:

Cita
En cuanto a los axiomas, son elecciones de cada teoría.
El caso es que en la lógica misma se toman axiomas, y como resultado surgen muchas lógicas distintas, así como cambiando los axiomas de la geometría surgen muchas geometrías distintas.
A mi me parece que allí reside toda la problematica, en saber por que unos axiomas y no otros. Espero conocer la respuesta antes de morirme  :llorando: (sin intenciones de sonar fatalista :cara_de_queso:)

Cita
En cada contexto una lógica será mejor que otra, según la "aplicación", pero en el caso de los fundamentos mismos de la lógica, ¿por qué usar aún la lógica clásica y no otra?
No solo me parece que no hay una forma de fundamentar eso, sino que encuentro una forma de refutar un planteo semejante; como habiamos hablado antes, el usar lógica clasica para fundamentar la propia lógica es aceptar (arbitrariamente) su validez para autofundamentarse (y si se acepta su validez para fundamentar de nada sirve demostrar, porque ya está aceptado).



El último párrafo no lo cito para no hacer muy extenso el mensaje; Nuevamente, el problema lo noto (como mencionaba más arriba) en la elección de axiomas, y el motivo por la preferencia de unos sobre otros.

Cita
Lo que dijiste del empirismo de la lógica clásica me gustó, pues yo también lo he pensado algunas veces, pero yo lo uso para argumentar contra su uso indiscriminado, y no para defenderla.
Me da la impresión de que te pareció que pretendía "justificar" la preferencia por el uso de esa lógica; Eso no es así, solo expuse lo que me parece que puede ser el motivo de su uso tan habitualmente, y de las "seguridades" que por lo general se sienten con respecto a ella.

Cita
Pero tampoco quiero hacer "escuela", porque no estoy demasiado seguro de nada.
jaja  :cara_de_queso: ¿Podemos llamarla la "escuela Pitagórica" o ya usaron ese nombre?  :sonrisa_amplia:


La charla es tan amena que casi no me molesta pasar tanto tiempo escribiendo;

Saludos  :guiño:
En línea
Ser Humano
Semi pleno
***

Karma: +0/-0
Desconectado Desconectado

Sexo: Masculino
Argentina Argentina

Mensajes: 61

intentando comprender


Ver Perfil
« Respuesta #39 : 02/08/2010, 12:43:54 am »

Sintaxis por un lado y semántica por otro.
Pero para establecer la sintaxis (los algoritmos de resolución) ¿no implementan la semantica? porque los algoritmos desembocan en conclusiones definidas, lejos de ser asignadas arbitrariamente (sólo se imponen arbitrariamente los axiomas).

Hasta la proxima :guiño:
En línea
Páginas: 1 [2] 3 4 ... 32   Ir Arriba
  Imprimir  
 
Ir a:  

Impulsado por MySQL Impulsado por PHP Powered by SMF 1.1.4 | SMF © 2006, Simple Machines LLC XHTML 1.0 válido! CSS válido!